我有一个脚本可以加载一个页面并从多个容器中保存一堆数据 id。然后我想打开新的 url,将这些数据 id 附加到 url 的末尾。对于每个 url,我想找到所有的 href 并将它们与特定链接列表进行比较,如果其中任何一个匹配,我想将该链接和其他一些详细信息保存到表中。
我已经设法让它打开带有附加数据 id 的 url,但是当我尝试在新页面中搜索元素时,它要么从第一个解析的 url 中提取它们,如果我再次尝试从汤中查找全部,或者我不断得到当我尝试运行另一个 html.parser 时出现此错误。
ResultSet 对象没有属性“findAll”。您可能将项目列表视为单个项目。当您打算调用 find() 时,您是否调用了 find_all()?
是不可能运行另一个解析器还是我做错了什么?
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from bs4 import BeautifulSoup as soup
from selenium.webdriver.common.action_chains import ActionChains
url = "http://csgo.exchange/id/76561197999004010#x"
driver = webdriver.Firefox()
driver.get(url)
import time
time.sleep(15)
html = driver.page_source
soup = soup(html, "html.parser")
containers = soup.findAll("div",{"class":"vItem"})
print(len(containers))
data_ids = [] # Make a list to hold the data-id's
for container in containers:
test = container.attrs["data-id"]
data_ids.append(test) # add data-id's to the list
print(str(test))
for id in data_ids:
url2 = "http://csgo.exchange/item/" + id
driver.get(url2)
import time
time.sleep(2)
soup2 = soup(html, "html.parser")
containers2 = soup2.findAll("div",{"class":"bar"})
print(str(containers2))
with open('scraped.txt', 'w', encoding="utf-8") as file:
for id in data_ids:
file.write(str(id)+'\n') # write every data-id to a new line