2

我正在尝试使用 Perl 的 WWW::Mechanize 来下载文件。我必须先登录网站,然后在验证表单后下​​载文件。

问题是,几个小时后,我没有成功地做我想做的事。最后,该脚本保存了一个文件,该文件不是 zip 文件,而是一个 html 文件,其中没有任何有趣的内容。

这是我完成的脚本:

use WWW::Mechanize;
use Crypt::SSLeay;

my $login = "MyMail";
my $password = "MyLogin";
my $url = 'http://www.lemonde.fr/journalelectronique/donnees/protege/20101002/Le_Monde_20101002.zip';

$bot = WWW::Mechanize->new();
$bot->cookie_jar(
    HTTP::Cookies->new(
        file           => "cookies.txt",
        autosave       => 1,
        ignore_discard => 1,
    )
);

$response = $bot->get($url);

$bot->form_name("formulaire");
$bot->field('login', $login);
$bot->field('password', $password);
$bot->submit();

$response = $bot->get($url);
my $filename = $response->filename;

if (! open ( FOUT, ">$filename" ) ) {
    die("Could not create file: $!" );
}
print( FOUT $bot->response->content() );
close( FOUT );

你能帮我找出我犯了什么错误吗?

4

2 回答 2

3

当您使用浏览器而不是直接使用 URL 导航到下载时,我假设会填写一些隐藏的输入字段。

此外,他们正在通过 JavaScript 设置一些 cookie,而 Mechanize 不会获取这些 cookie。但是,有一个插件WWW::Mechanize::Plugin::JavaScript可能可以帮助您解决这个问题(我没有这方面的经验)。

使用LiveHTTPHeaders查看浏览器提交的内容并进行复制(假设您没有违反他们的 TOS)。

于 2010-10-06T14:20:54.760 回答
-4

你提到的问题在机械化中是众所周知的。最简单的解决方案是使用 Raspo 库。

于 2010-10-06T13:12:19.543 回答