4

我正在尝试从该网站获取数据:http: //www.boursorama.com/includes/cours/last_transactions.phtml?symbole=1xEURUS

似乎 urlopen 没有得到 html 代码,我不明白为什么。它是这样的:

html = urllib.request.urlopen("http://www.boursorama.com/includes/cours/last_transactions.phtml?symbole=1xEURUS")
print (html)

我的代码是对的,我用相同的代码得到了其他网页的 html 源,但它似乎无法识别这个地址。

它打印:b''

也许另一个图书馆更合适?为什么urlopen不返回网页的html代码?帮忙谢谢!

4

3 回答 3

4

就个人而言,我写道:

# Python 2.7

import urllib

url = 'http://www.boursorama.com/includes/cours/last_transactions.phtml?symbole=1xEURUS'
sock = urllib.urlopen(url)
content = sock.read() 
sock.close()

print content

Et si tu parles français,.. bonjour sur stackoverflow.com !

更新 1

事实上,我现在更喜欢使用以下代码,因为它更快:

# Python 2.7

import httplib

conn = httplib.HTTPConnection(host='www.boursorama.com',timeout=30)

req = '/includes/cours/last_transactions.phtml?symbole=1xEURUS'

try:
    conn.request('GET',req)
except:
     print 'echec de connexion'

content = conn.getresponse().read()

print content

在此代码中更改httplibhttp.client应该足以使其适应 Python 3。

.

我确认,通过这两个代码,我获得了我看到您感兴趣的数据的源代码:

        <td class="L20" width="33%" align="center">11:57:44</td>

        <td class="L20" width="33%" align="center">1.4486</td>

        <td class="L20" width="33%" align="center">0</td>

</tr>

                                        <tr>

        <td  width="33%" align="center">11:57:43</td>

        <td  width="33%" align="center">1.4486</td>

        <td  width="33%" align="center">0</td>

</tr>

更新 2

将以下代码段添加到上述代码中将允许您提取我认为您想要的数据:

for i,line in enumerate(content.splitlines(True)):
    print str(i)+' '+repr(line)

print '\n\n'


import re

regx = re.compile('\t\t\t\t\t\t<td class="(?:gras )?L20" width="33%" align="center">(\d\d:\d\d:\d\d)</td>\r\n'
                  '\t\t\t\t\t\t<td class="(?:gras )?L20" width="33%" align="center">([\d.]+)</td>\r\n'
                  '\t\t\t\t\t\t<td class="(?:gras )?L20" width="33%" align="center">(\d+)</td>\r\n')

print regx.findall(content)

结果(仅结束)

.......................................
.......................................
.......................................
.......................................
98 'window.config.graphics = {};\n'
99 'window.config.accordions = {};\n'
100 '\n'
101 "window.addEvent('domready', function(){\n"
102 '});\n'
103 '</script>\n'
104 '<script type="text/javascript">\n'
105 '\t\t\t\tsas_tmstp = Math.round(Math.random()*10000000000);\n'
106 '\t\t\t\tsas_pageid = "177/(includes/cours/last_transactions)"; // Page : boursorama.com/smartad_test\n'
107 '\t\t\t\tvar sas_formatids = "8968";\n'
108 '\t\t\t\tsas_target = "symb=1xEURUS#"; // TargetingArray\n'
109 '\t\t\t\tdocument.write("<scr"+"ipt src=\\"http://ads.boursorama.com/call2/pubjall/" + sas_pageid + "/" + sas_formatids + "/" + sas_tmstp + "/" + escape(sas_target) + "?\\"></scr"+"ipt>");\t\t\t\t\n'
110 '\t\t\t</script><div id="_smart1"><script language="javascript">sas_script(1,8968);</script></div><script type="text/javascript">\r\n'
111 "\twindow.addEvent('domready', function(){\r\n"
112 'sas_move(1,8968);\t});\r\n'
113 '</script>\n'
114 '<script type="text/javascript">\n'
115 'var _gaq = _gaq || [];\n'
116 "_gaq.push(['_setAccount', 'UA-1623710-1']);\n"
117 "_gaq.push(['_setDomainName', 'www.boursorama.com']);\n"
118 "_gaq.push(['_setCustomVar', 1, 'segment', 'WEB-VISITOR']);\n"
119 "_gaq.push(['_setCustomVar', 4, 'version', '18']);\n"
120 "_gaq.push(['_trackPageLoadTime']);\n"
121 "_gaq.push(['_trackPageview']);\n"
122 '(function() {\n'
123 "var ga = document.createElement('script'); ga.type = 'text/javascript'; ga.async = true;\n"
124 "ga.src = ('https:' == document.location.protocol ? 'https://ssl' : 'http://www') + '.google-analytics.com/ga.js';\n"
125 "var s = document.getElementsByTagName('script')[0]; s.parentNode.insertBefore(ga, s);\n"
126 '})();\n'
127 '</script>\n'
128 '</body>\n'
129 '</html>'



[('12:25:36', '1.4478', '0'), ('12:25:33', '1.4478', '0'), ('12:25:31', '1.4478', '0'), ('12:25:30', '1.4478', '0'), ('12:25:30', '1.4478', '0'), ('12:25:29', '1.4478', '0')]

我希望您不打算在外汇上“玩”交易:这是快速赚钱的最佳方式之一。

更新 3

对不起 !我忘记了您使用的是 Python 3。所以我认为您必须像这样定义正则表达式:

regx = re.compile( b '\t\t\t\t\t......)

也就是说在字符串之前加上b,否则你会得到类似这个问题的错误

于 2011-08-23T08:55:59.413 回答
4

我怀疑正在发生的是服务器正在发送压缩数据而没有告诉你它正在这样做。Python 的标准 HTTP 库无法处理压缩格式。
我建议使用 httplib2,它可以处理压缩格式(通常比 urllib 好得多)。

import httplib2
folder = httplib2.Http('.cache')
response, content = folder.request("http://www.boursorama.com/includes/cours/last_transactions.phtml?symbole=1xEURUS")

print(response)向我们展示来自服务器的响应:
{'status': '200', 'content-length': '7787', 'x-sid': '26,E', 'content-language': 'fr', '设置cookie':'PHPSESSIONID = ed45f761542752317963ab4762ec604f; 路径=/; domain=.www.boursorama.com', 'expires': 'Thu, 19 Nov 1981 08:52:00 GMT', 'vary': 'Accept-Encoding,User-Agent', 'server': 'nginx', 'connection': 'keep-alive', '-content-encoding': 'gzip' , 'pragma': 'no-cache', 'cache-control': 'no-store, no-cache, must-revalidate, post-check=0, pre-check=0', 'date': 'Tue, 23 Aug 2011 10:26:46 GMT', 'content-type': 'text/html; 字符集=ISO-8859-1', '

虽然这并不能证实它已被压缩(毕竟我们现在告诉服务器我们可以处理压缩),但它确实为该理论提供了一些分量。

您猜对了,实际内容存在于content. 简单地看一下它会告诉我们它正在工作(我只是要粘贴一点):
b'<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01//EN"\n\t"http://

编辑:是的,这确实创建了一个名为 .cache 的文件夹;我发现当涉及到 httplib2 时,使用文件夹总是更好,之后您可以随时删除该文件夹。

于 2011-08-23T10:41:12.810 回答
2

我已经用httplib2和 curl 在终端上测试了你的 URL。两者都工作正常:

URL = "http://www.boursorama.com/includes/cours/last_transactions.phtml?symbole=1xEURUS"
h = httplib2.Http()
resp, content = h.request(URL, "GET")
print(content)

所以对我来说,要么 urllib.request 中存在错误,要么发生了非常奇怪的客户端-服务器交互。

于 2011-08-23T08:49:21.143 回答