Google 实际上确实识别了 robots.txt 中的 Noindex: 指令。这是马特·卡茨谈论它: http: //www.mattcutts.com/blog/google-noindex-behavior/
如果您在 robots.txt 中为已经在 Google 索引中的页面添加“Disallow”,您通常会发现该页面保留在索引中,就像幽灵一样,被剥夺了关键字。我想这是因为他们知道他们不会抓取它,并且他们不想要包含 bit-rot 的索引。因此,他们将页面描述替换为“由于此站点的 robots.txt,无法获得此结果的描述 - 了解更多信息。”
所以,问题仍然存在:既然“禁止”不起作用,我们如何从 Google 中删除该链接?通常,您会希望在相关页面上使用元机器人 noindex,因为如果 Google 看到此更新,它实际上会从索引中删除该页面,但是使用您的机器人文件中的 Disallow 指令,他们永远不会知道它。
因此,您可以从 robots.txt 中删除该页面的 Disallow 规则,并在该页面的标题中添加一个 meta robots noindex 标签,但现在您必须等待 Google 返回并查看您告诉他们忘记的页面。
您可以从您的主页创建一个指向它的新链接,希望 Google 会得到提示,或者您可以通过直接将 Noindex 规则添加到 robots.txt 文件来避免整个事情。在上面的帖子中,马特说这将导致链接被删除。