1

假设我们在网络上放置了一个文件,如果您知道直接 URL,该文件可以公开评估。没有指向该文件的链接,并且服务器上的目录列表也已禁用。因此,虽然它可以公开访问,但除了输入该文件的确切 URL 外,无法访问该页面。任何类型的网络爬虫(好的或恶意的)能够通过爬取然后索引文件来定位该文件的可能性有多大。

对我来说,即使它可以公开访问,也需要运气或查找文件的特定知识。就像把金子埋在后院,让别人在没有地图的情况下找到它,或者知道那里埋着什么东西。

我只是看不到它会被发现的任何其他方式,但这就是我询问 stackoverflow 社区的原因。

谢谢。

4

8 回答 8

3

过去,据称此类隐藏位置是使用所有者/上传者使用的 Google 工具栏(可能还有其他此类浏览器插件)“找到”的。

于 2009-05-25T17:52:09.907 回答
3

通过默默无闻的安全永远不会奏效。你说,不会链接到它,我相信你。但是没有什么能阻止您的用户有意或无意地链接到它。正如 ceejayoz 所说,现在有很多不同的地方可以发布链接。甚至还有“书签同步器”,人们可能认为它们是私有的,但实际上是对世界开放的。

所以使用真正的身份验证。如果你不这样做,你以后会后悔的。

于 2009-05-25T17:53:38.513 回答
1

链接可以出现在任何地方——有人可以在 Twitter 上链接到它,或者在 Facebook 上发布它,或者在博客上发表评论。它只需要一个。

如果重要的是它不会出现在任何地方,请将其放在密码后面。

如果它不是很重要,但您仍然不希望通过搜索引擎轻松访问它,请使用 robots.txt 文件来阻止表现良好的爬虫。

于 2009-05-25T17:51:48.067 回答
1

购买/出售的点击流数据可能会导致未链接的内容发现:http ://en.wikipedia.org/wiki/Clickstream

于 2010-10-01T18:49:48.230 回答
0

假设:

  • 目录列表:已禁用。没有人
  • 知道页面的存在。
  • 您的文件不包含任何链接(然后您的浏览器可以将引用者发送到链接的站点)
  • 您已正确设置 robots.txt
  • 您相信所有人都不会将您的链接传播给其他任何人。
  • 你很幸运

那么,您的页面可能不会被发现或被发现。

结论 ?

使用 .htaccess 文件保护您的数据。

于 2009-05-25T17:53:09.577 回答
0

你是对的。网络爬虫隐喻地是蜘蛛——它们需要有一种方法来遍历网络(超链接)并到达您的页面。

要将您的假设页面放入搜索引擎的结果中,您必须手动将其 URL 提交给搜索引擎。有多种服务可将您的页面提交给这些搜索引擎。请参阅“向搜索引擎提交 URL”

此外,只有当搜索引擎确定您的页面在搜索引擎的专有排名系统中具有足够的元数据/业力时,您的页面才会出现。请参阅“SEO”和“元关键字”。

于 2009-05-25T17:55:55.607 回答
-1

是的,你的权利网络爬虫访问 URL,它识别页面中的所有超链接并将它们添加到要访问的 URL 列表中,并称为爬虫边界,但这些超链接和 URL 有错误的链接。一旦用户单击错误链接并登陆恶意软件站点,他们通常会通过虚假的编解码器安装对话框进行宣传。如果这没有得到他们,该网站仍然会加载数十种其他策略来感染他们的计算机。从假工具栏、恐吓软件、流氓软件等等,这些网站应有尽有。他们遇到的一个站点甚至尝试安装 25 种不同的恶意软件。此类网站使人们容易受到安装垃圾邮件机器人、rootkit、密码 Steelers 和各种特洛伊木马等的攻击。

于 2009-08-21T07:20:34.133 回答
-2

你可以使用谷歌搜索API。对于与任何其他网页未链接的网页。我们对此一无所知。

于 2009-05-25T17:52:47.563 回答