0

我在 Ubuntu 服务器 12.04 上运行 Nginx 1.1.19 并且在执行 Googlebot 时遇到问题,请参阅 robots.txt 文件。我使用了这篇文章的示例,但没有成功。为了测试该服务,我访问了网站管理员工具,点击“完整性 > 搜索为 Googlebot”...只是收到来自“未找到”、“页面不可用”和“robots.txt 文件不可访问”的消息“……

我还要确认是否应该对 中的文件nginx.conf或文件“默认”执行配置/etc/nginx/sites-enabled,因为在以后的版本中,我注意到可能会有所不同。这是我的基本设置。

root /usr/share/nginx/www;
index index.php;

# Reescreve as URLs.
location / {
    try_files $uri $uri/ /index.php;
}
4

2 回答 2

2

我设法通过添加命令“重写”策略服务器来解决我的问题,如下代码所示。在那之后,我回到谷歌网站管理员,用谷歌机器人重新搜索,它工作了。借此机会在这里留下我的代码,它将端口 80 重定向到 443 前缀和非 www 到 www。

# Redirect HTTP to HTTPS and NON-WWW to WWW
server {
    listen 80;
    server_name domain.com.br;
    rewrite ^ https://www.domain.com.br$1 permanent;

# Rewrite the URLs.
    location / {
    try_files $uri $uri/ /index.php;
    }
}
server {
    listen 443;
    server_name www.domain.com.br;

# Rewrite the URLs.
    location / {
    try_files $uri $uri/ /index.php;
}

    root /usr/share/nginx/www;
    index index.php;

    [...] the code continued here
于 2013-02-15T16:16:41.320 回答
0

在这里查看我的答案。

关于将其添加到您的主nginx.conf文件或/etc/nginx/sites-available文件中,这取决于您,无论您希望它分别是全局的还是特定于站点的。

于 2013-02-14T20:25:50.983 回答