问题标签 [lynx]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
bash - 获取本网站的源代码
我想从我想购买的一些书籍中获取一些数据。但为此我需要获取页面的源代码,但我不能。
一个示例 URL 是:
我正在测试 curl、wget、lynx、接受 cookie 等方面的各种可能性。
如果我看到标题,我标记了 302
如果我使用'',“”,\?\&、wget、lynx -source、接受 cookie 等。我唯一得到的下载错误页面(我发送代码 302 的地方)
你知道我如何下载我放一个例子的 URL 的源代码吗?(Bash、php、python、perl ...)
非常感谢。
bash - lynx 命令上的 grep
我想在 lynx 命令上 grep 结果
该命令的结果
我希望该词替换为 0 或向下,我尝试创建 bash 脚本,但该命令仍然显示。我想要的结果是。
已经尝试在 bash 上使用 if else 但仍然不起作用。
curl - 如何从 YouTube 频道 grep 网址
正如我研究的那样,最聪明的方法是使用 API,但是当使用 cURL 时,我可以在输出中找到所有必需的信息,但它有点混乱。
返回包含视频网址的所有必需块:
但是只有 /watch 有困难吗?零件到达输出。
做这项工作,但它不是很有效,因为我可以想象。
html - 使用bash从html文件中提取文本
我有一个脚本:
我正在使用lynx
从我的所有 HTML 文件中检索文本,但问题是当我打开我的文本文件时,它是这样写的:
我不知道为什么,因为当我在终端和爬虫文件夹中时,我对每个 HTML 文件执行 lynx 转储,它正在生成文本文件,但是当我想将它与脚本一起使用来读取我的所有 HTML 时文件并lynx
在它们上使用结果并不好。
python - 再次使用 Python 从包含 URL 的 .txt 文件下载数据
我目前正在尝试从 10 个 url 的 .txt 文件中提取原始数据,并将每一行(URL)的原始数据放入 .txt 文件中。然后使用 Python 对处理后的数据(从相同的原始 .txt 文件中去除 html 的原始数据)重复该过程。
我试图用一个脚本来完成所有这些。谁能帮我完善我的代码以便我可以运行它?对于 .txt 文件中的每一行,它应该完全循环一次代码。例如,我的 .txt 文件中的每个 url 行都应该有 1 个原始文件和 1 个处理后的 .txt 文件。
tor - 在 bash 中使用 lynx 转储 .onion
所以,我在我的机器上设置了一个 Tor socks 代理,我想使用代理链或其他替代方法来从 Tor .onion 站点获取 lynx 转储链接。我测试了代理是否工作,并注意到我可以使用 Foxyproxy 连接到 Firefox 中的站点,并且它似乎工作。但是,如果我尝试将 Proxychains 设置为使用代理,代理似乎正在工作,因为当我运行此命令时我的 IP 不同:
proxychains curl ipecho.net/plain;echo
但是,当我运行时,lynx 给出了搜索结果,而不是转储链接:
我猜可能是因为它使用的是我的实际 DNS 而不是代理上的 DNS。我也尝试了 tsocks 并得到了这个错误:
javascript - 动画锚点在 Lynx 中不起作用
我的一页设计网站上有几个锚点。那些使用 JavaScript 动画的人不能在屏幕阅读器 lynx 中工作。单击其中一个链接始终以该页面上的第一个锚为目标。
由于 Javascript 不影响(通常)屏幕阅读器的行为 - 我能做什么?
@Allan:感谢您提供帮助!所以这里有一些代码: 只有屏幕阅读器才能看到的主导航链接直接跳转到 ID 为“mainnavi”的链接:
链接“主页”动画向下滚动到“主页”部分,编码如下:
就是这样。希望这会有所帮助。
solr - 使用 lynx 命令运行时 SOLR 完全导入不起作用
我想在 Amazon EC2 Linux 中设置一个 cron,以在每晚 12:15 运行 SOLR 完全导入。在我设置 cron 之前,我尝试在终端中测试它是否正常工作。我用下面的命令来测试
命令的输出:
但是当我转到下面的 url 检查是否完全导入实际启动时。我看到完全导入命令没有运行。 http://amzon-instance-ip:8983/solr/#/workb/dataimport//dataimport
任何人都可以帮助我为什么 SOLR 完全导入不能使用 lynx 命令运行?我是正确使用 lynx 还是需要使用不同的方法?请有任何建议。
linux - 如何从许多网页下载文本到文件?
我正在尝试下载波兰语词典。不幸的是,现有文件包含所有变形(不确定正确的英文单词是什么)。我发现命令
可以下载单个字典网页。然后,我将不得不以某种方式仅从文本块中提取字典条目,但至少这是一个开始。
不幸的是,我是一个 linux 菜鸟,不知道如何遍历所有 3067 页。