1

我正在尝试抓取和抓取网站的表格。我有一个网站帐户,我发现 Rcrawl 可以帮助我根据特定关键字等获取表格的部分内容。问题是在 GitHub 页面上没有提及如何使用帐户抓取网站/密码保护。

登录示例如下:

login <- list(username="username", password="password",)

你知道Rcrawler是否有这个功能吗?例如:

Rcrawler(Website = "http://www.glofile.com" +
list (username = "username", password = "password" + no_cores = 4, no_conn = 4, ExtractCSSPat = c(".entry-title",".entry-content"), PatternsNames = c("Title","Content"))

我确信我上面的代码是错误的,但我希望它能让您了解我想要做什么。

4

1 回答 1

1

要在 R 中爬取或抓取受密码保护的网站,更准确地说是基于 HTML 的身份验证,您需要使用 Web 驱动程序来刺激登录会话,幸运的是,从Rcrawler v0.1.9 开始,这是可能的,它实现了 phantomjs Web 驱动程序(浏览器但没有图形界面)。

在下面的例子中将尝试登录一个博客网站

 library(Rcrawler)

下载并安装网络驱动程序

install_browser()

运行浏览器会话

br<- run_browser()

如果您收到错误消息而不是禁用防病毒软件或在系统设置中允许该程序

运行自动登录操作,如果成功则返回登录会话

 br<-LoginSession(Browser = br, LoginURL = 'http://glofile.com/wp-login.php'
                 LoginCredentials = c('demo','rc@pass@r'),
                 cssLoginFields =c('#user_login', '#user_pass'),
                cssLoginButton ='#wp-submit' )

最后,如果您已经知道要抓取/下载的私人页面,请使用

DATA <- ContentScraper(... , browser =br)

或者,只需抓取/抓取/下载所有页面

Rcrawler(Website = "http://glofile.com/",no_cores = 1 ,no_conn = 1,LoggedSession = br ,...)

不要使用多个并行 no_cores/no_conn,因为许多网站拒绝一个用户的多个会话。通过设置 Obeyrobots = TRUE 保持合法并尊重 robots.txt

您可以访问浏览器功能,例如:

 br$session$getUrl()
 br$session$getTitle()
 br$session$takeScreenshot(file = "image.png") 
于 2018-11-16T12:04:44.903 回答