问题标签 [urllib2]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 这个 urllib2 python 代码会下载文件的页面吗?
urllib2.urlopen(theurl).read() ...这会下载文件。
urllib2.urlopen(theurl).geturl() ...这会下载文件吗?(多久时间)
python - python检查文件
在那里学习python。我想写一个脚本来检查我的网络服务器是否有在根 123.jpg 中命名的图片
我有:
整天看手册,解决不了:(
python - python urllib2导入错误的帮助
在我的脚本中,我导入了 urrlib2 并且脚本运行良好。重新启动后,我收到以下错误:
当我import random
单独做时,它工作正常。有什么想法可能是错的吗?
我正在使用 ubuntu 9.10(最新)。谢谢
python - python - urrlib2 请求 https 站点 - 出现 400 错误
使用以下代码片段访问带有帖子的 url。
我可以使用 wget 和以下内容获取它: wget --post-data 'p_calling_proc=bwckschd.p_disp_dyn_sched&p_term=201010' https://spectrumssb2.memphis.edu/pls/PROD/bwckgens.p_proc_term_date
出于某种原因,我的 python 文本有问题,因为我得到了 400 的错误代码。(当然浏览器按预期工作)
任何想法/评论/等...
我拥有的python测试:
//===========================================
.
任何想法/意见将不胜感激..
谢谢
python - python使用post和cookie获取多个页面
有一个我正在获取的测试站点。该站点使用 POST 方法以及 cookie。(不确定cookies是否重要,但我倾向于认为它们是......)
该应用程序呈现一个页面,带有一个“下一步按钮”来生成后续页面。我已经使用 LiveHttpHeaders/Firefof 来确定查询中的发布数据应该是什么,以及正在设置 cookie 的事实。我还验证了如果浏览器启用了 cookie,该页面将无法正常工作。
我试图弄清楚我在测试中错过/搞砸了什么。示例代码显示了我试图获取的第一页和第二页的查询/发布数据。
我已经搜索了网络,并尝试了许多不同的可能尝试,所以我很确定我错过了一些简单的东西..
任何想法/意见表示赞赏..
感谢您的任何想法/指示...
是的..我知道..脚本/测试真的很糟糕!
-汤姆
single-sign-on - 通过 urllib2 POST 请求传递输入隐藏参数
我需要向 CAS SSO 服务器登录页面发出 POST 请求,而 CAS 登录页面几乎没有通过 java 动态填充的输入隐藏参数。我不知道如何从响应中读取这些隐藏的参数值并传递给 CAS 服务器。如果不传递这些隐藏的参数,我将无法登录。
有没有人如何从 urllib2 响应中读取输入隐藏参数值?提前致谢!
python - urllib2.urlopen() 与 urllib.urlopen() - urllib2 在 urllib 工作时抛出 404!为什么?
上面的脚本工作并返回预期的结果,同时:
引发以下错误:
有人知道为什么吗?我在没有代理设置的家庭网络上从笔记本电脑上运行它 - 只是直接从我的笔记本电脑到路由器,然后到 www。
python - 用 pycurl 获得很多页面?
我想从网站上获取很多页面,例如
但在 python 中获取页面数据,而不是磁盘文件。有人可以发布pycurl
代码来做到这一点,
或者如果可能的话,可以快速urllib2
(不是一次一个),
或者说“算了吧,curl 更快更健壮”?谢谢
python - 对二进制数据使用 Urlllib2.urlopen 失败?
我正在使用 python 以编程方式从 Web 服务器下载一个 zip 文件。使用网络浏览器,没问题。我写了这个(部分)脚本;
请求成功,我得到数据。问题是我正在下载的文件——一个 zip 文件——不起作用;该文件似乎已损坏。它的长度似乎是正确的,在文本编辑器中看起来像是一个 zip 文件的内容。这是下载的标题;
内容长度:9891 内容处置:内容处置:附件;filename="TrunkBackup_20101230.zip" 日期:星期三,2009 年 12 月 30 日 12:22:08 GMT 接受范围:字节
当我检查响应的长度时,它在 9891 处是正确的。我怀疑发生的事情是,当我调用结果时response.read()
,结果是一个字符串,其回车符“有帮助”归一化(比如\r
to \n
)。当我写入文件时,二进制数据略有错误,并且 zip 文件已损坏。
我的问题是(A)我不确定我是否正确,以及(B)如果我是对的,如何保存二进制数据本身?
python - 执行多个请求时如何加速 Python 的 urllib2
我正在使用 python 的 urllib2 库向特定主机发出几个 http 请求。每次发出请求时,都会创建一个新的 tcp 和 http 连接,这需要相当长的时间。有什么方法可以使用 urllib2 保持 tcp/http 连接处于活动状态?