我正在尝试从硬盘驱动器上的 1200 多个 .htm 文件中删除行。在我的电脑上,它们位于“file:///home/phi/Data/NHL/pl07-08/PL020001.HTM”。这些 .htm 文件从 *20001.htm 到 *21230.htm 是连续的。我的计划是最终通过电子表格应用程序将我的数据扔到 MySQL 或 SQLite 中,或者如果我能从这个过程中得到一个干净的 .csv 文件,就直接输入。
这是我第一次尝试编写代码(Python)、抓取,我刚刚在我蹩脚的 pentium IV 上安装了 Ubuntu 9.04。不用说我是新手并且有一些障碍。
如何让 mechanize 按顺序浏览目录中的所有文件。机械化甚至可以做到这一点吗?mechanize/Python/BeautifulSoup 可以读取 'file:///' 样式的 url,还是有其他方法可以将其指向 /home/phi/Data/NHL/pl07-08/PL020001.HTM?以 100 或 250 个文件增量执行此操作还是仅发送所有 1230 个文件是否明智?
我只需要以“”开头并以“ <tr class="evenColor">
”结尾的行</tr>
。理想情况下,我只想要其中包含“SHOT”|“MISS”|“GOAL”的行,但我想要整行(每一列)。请注意,“目标”是粗体的,所以我必须指定这个吗?每个 htm 文件有 3 个表。
此外,我希望将父文件的名称(pl020001.htm)包含在我抓取的行中,这样我就可以在最终数据库中自己的列中标识它们。我什至不知道从哪里开始。这是我到目前为止所拥有的:
#/usr/bin/python
from BeautifulSoup import BeautifulSoup
import re
from mechanize import Browser
mech = Browser()
url = "file:///home/phi/Data/NHL/pl07-08/PL020001.HTM"
##but how do I do multiple urls/files? PL02*.HTM?
page = mech.open(url)
html = page.read()
soup = BeautifulSoup(html)
##this confuses me and seems redundant
pl = open("input_file.html","r")
chances = open("chancesforsql.csv,"w")
table = soup.find("table", border=0)
for row in table.findAll 'tr class="evenColor"'
#should I do this instead of before?
outfile = open("shooting.csv", "w")
##how do I end it?
我应该使用 IDLE 还是类似的东西?只是 Ubuntu 9.04 中的终端?