0

我正在使用以下代码来获取页面的 html。

 #!C:\Perl64\bin\perl.exe
    use strict;
    use warnings;
    use WWW::Mechanize;
    my $url=$ARGV[0];
    my $mech=new WWW::Mechanize();
    $mech->get($url,":content_file" => "C:\\path\\www\\page.html");

上面的代码适用于某些站点,但其他站点(如 wikipedia)需要添加 agent_alias。但是,每当我添加 agent_alias 时,page.html 都会显示一些废话。

$mech->agent_alias('Windows IE 6');

我试图添加其他别名,但它没有任何区别。我该怎么做才能正确获取所有页面的 html(source)。

4

1 回答 1

1

我对 libwww-perl 有更好的体验:

require LWP::UserAgent;
$ua->agent('Mozilla/5.0');
$response = $ua->get('http://search.cpan.org/');
于 2012-05-30T16:23:10.083 回答