(2)如果有大量的页面生成的跨业查询的网站必须有大量的页没有内容。页没有内容你可以设置一个URL功能分开然后使用机器人。txt持有它。阻塞阻止搜索引擎认为网站创建垃圾页面。(3)如果网站修改或大量的页面突然删除出于某种原因这是众所周知的。突然出现大量死链接在网站上是有害的网站在搜索引擎的性能。虽然现在可以直接向百度提交死链接最好是屏蔽百度的抓取的死链接因此从理论上讲百度不会突然发现网站有太多的死链接或两者兼而有之。当然站长自己最好清理死链在车站。(4)如果UGC网站有一个函数类似为了增加用户提供内容的热情用户不禁止混合内容的链接。这个时候为了防止这些链接浪费网站或暗示的重量这些链接可以跳转链接的网站seo网站优化推广这些链接可以跳转链接的网站然后使用机器人。三块。现在很多论坛已经这样做。(5)传统的内容不会被搜索引擎索引如私人数据、用户信息和治理背景页都可以阻止使用robots . txt。