-2

我犯了一个错误,即通过 Javascript 生成几乎所有请求的内容(来自 XML 文件)。现在我了解到这对 SEO 来说是可怕的。从那以后,我也了解了渐进增强,并且很遗憾我也错过了那条船。

我一直在研究剩余的 SEO 选项,并遇到了 Google 的AJAX 可抓取建议,但随后阅读了很多关于为什么 hashbang 不好的有根据的意见。

无论我使用什么选项,深度链接对我来说也很重要。我目前正在使用JQuery-BBQ,它适用于深度链接,但对搜索引擎没有任何帮助。我正在考虑切换到更好地支持 HTML5 历史状态的选项,例如History.js。这将有助于清理 URL 并避免散列,但我不确定它是否真的会对 SEO 产生影响,因为我的所有内容都是从 XML 文件动态生成的。

为了实现体面的 SEO,我还有哪些选择?请只戴白帽,不要伪装。

请注意,我的担忧主要是关于 SEO,而不是可访问性——这是一个个人投资组合网站,我可以接受我的内容对某些人不可见,但我不同意它对蜘蛛不可见。 这是该站点(正在进行中,但主要是在架构上)。

编辑:是的,我知道有许多类似于这个的 SO 问题,但其中大多数都有需要重大重组的答案。如果我从头开始,我不是在寻找一个我会使用的答案,我在寻找一些东西来尽可能优雅地修补我以前的无知......

4

3 回答 3

1

一个是您必须解释到达您网站的请求,如果它来自谷歌机器人,您可以返回您网站的 html 版本,如果它是普通用户,则重定向到普通 site.for 返回您网站的 html 版本,无需付出太多努力更改代码时,您可以对您的网站进行屏幕抓取,如果它是谷歌机器人,则返回呈现的 html 响应。你可以通过几种方式来做到这一点,要么使用带有 Nodejs 服务器的 phantomjs 之类的无头浏览器,要么使用 python beautiful soup 或 java htmlkit。

于 2012-07-10T08:25:22.807 回答
0

重新开始制作网站,使其无需 JavaScript 即可运行。然后(可选)使用 JavaScript 随意增强体验。

于 2012-07-10T08:19:05.150 回答
0

尽管有反对意见和重新开始的建议,但我找到了答案。我使用 php 为我的内容生成了一个精简的纯 html 版本,它的另一个好处是为禁用了 javascript 的任何人提供了可用的(如果不是理想的话)体验。

如果视口大小足以容纳它们,我还使用媒体查询来显示 javascripted DOM 元素。由于蜘蛛很少使用 CSS,它们只能看到 php 生成的纯 html,并且有很好的内容可供搜索引擎使用。

请参阅transmote.com以了解此操作的示例;减少浏览器宽度 < 640px 或使用Pendule之类的工具关闭 CSS以查看 php 生成的纯 html 内容。

于 2012-10-23T05:37:33.623 回答