我刚刚为一个将要替换他们旧的(非常旧的、HTML 硬编码的网站)的客户完成了一个网站。问题是他们(现在)想要将他们的旧网站和网络服务器上的所有文件保存在原始位置。这不会对用 PHP 和 Wordpress 制作的新网站造成任何问题,但是当谷歌(和其他人)使用他们的搜索机器人和索引时,它会产生很大的影响。
在进行 Google 搜索时,它仍然会找到旧的 HTML 文件。有什么方法可以“保留”网络服务器上的旧 HTML 文件,但首先要确保没有机器人会为它们编制索引,并且如果有人试图导航到 HTML 页面,例如http://www .clientdomain.com/old_index_file.html,他们正在重定向?我认为最后一部分可能可以在 .htaccess 中完成,但我没有找到任何有用的搜索。
关于不允许机器人和代理索引 HTML 文件的第一个问题,我试图将这两行放在我的robots.txt文件中
Disallow: /*.html$
Disallow: /*.htm$
但我不确定它是否会起作用?
我可能会以一种完全错误的方式处理这个问题,但我从未尝试过客户曾要求将旧网站保留在同一台服务器上并保留在原来的位置。
谢谢,
- 梅斯蒂卡