我们正在向我们的 CMS 添加一些功能,当用户创建一个页面时,他们可以选择一个选项来允许/禁止该页面的搜索引擎索引。
如果他们选择是,那么将适用以下内容:
<cfif request.variables.indexable eq 0>
<cffile
action = "append"
file = "C:\websites\robots.txt"
output = "Disallow: /blocked-page.cfm"
addNewLine = "yes">
<cfelse>
<!-- check if page already disallowed in robots.txt and remove line if it does --->
</cfif>
这是<cfelse>
我需要帮助的条款。解析 robots.txt 以查看此页面是否已被禁止的最佳方法是什么?会是 cffile action="read",然后对 read 变量执行 find() 吗?
实际上,对页面是否已经被禁止的检查可能会更进一步,以避免双重添加。