我在一个站点上有很多 404 错误的问题。我发现这些错误正在发生,因为谷歌试图找到不再存在的页面。现在我需要告诉谷歌不要再索引这些页面了。
我在网上找到了一些关于使用 robots.txt 文件的解决方案。但这不是我建立的网站。我只需要修复这些错误。问题是,这些页面已生成。它们实际上并不以那种形式存在。所以我不能在php代码中添加任何东西。而且我不太确定如何将它们添加到robot.txt。
当我只是写: *用户代理:* noindex:/objekten/anzeigen/haus_antea/5-0000001575*
并点击网站管理员工具中的测试按钮
我从 Googlebot 得到这个: 允许检测为目录;特定文件可能有不同的限制
我不知道那是什么意思。
我是这种东西的新手,所以请尽可能简单地写下你的答案。
抱歉英语不好。