不知何故,一个虚拟 robots.txt 阻止了谷歌搜索网站http://www.domda.se。我不希望这种情况发生。
该网站是用 Wordpress 制作的,并在 Integrity 设置中对搜索引擎开放(当然;)
我试过了:
关闭并再次打开隐私设置/搜索引擎允许。
关闭所有插件。
将完全允许的 robots.txt 添加到根目录。
使用机器人插件编写 robots.txt 中应包含的内容
将主题更改为 211 并再次返回
使用 ftp 重置插件文件夹
现在我想知道是否有人可以帮助我,因为我的 php 知识太低了,这让我脸红。我现在想到的事情是尝试通过查看functions.php来解决问题。
在 wp-includes/functions.php 中执行代码的机器人说:
function do_robots() {
header( 'Content-Type: text/plain; charset=utf-8' );
do_action( 'do_robotstxt' );
$output = "User-agent: *\n";
$public = get_option( 'blog_public' );
if ( '0' == $public ) {
$output .= "Disallow: /\n";
} else {
$site_url = parse_url( site_url() );
$path = ( !empty( $site_url['path'] ) ) ? $site_url['path'] : '';
$output .= "Disallow: $path/wp-admin/\n";
$output .= "Disallow: $path/wp-includes/\n";
}
echo apply_filters('robots_txt', $output, $public);
}
也许那个代码完全没问题。而我添加一个真正的 robots.txt 会否决虚拟的,但我真的不知道该怎么做。
我希望有人能帮帮忙。