12

我创建了一个简单的网络爬虫,但我想添加递归函数,以便打开的每个页面都可以获取此页面中的 URL,但我不知道如何做到这一点,我还想包含要制作的线程它更快。这是我的代码

namespace Crawler
{
    public partial class Form1 : Form
    {
        String Rstring;

        public Form1()
        {
            InitializeComponent();
        }

        private void button1_Click(object sender, EventArgs e)
        {
            
            WebRequest myWebRequest;
            WebResponse myWebResponse;
            String URL = textBox1.Text;

            myWebRequest =  WebRequest.Create(URL);
            myWebResponse = myWebRequest.GetResponse();//Returns a response from an Internet resource

            Stream streamResponse = myWebResponse.GetResponseStream();//return the data stream from the internet
                                                                       //and save it in the stream

            StreamReader sreader = new StreamReader(streamResponse);//reads the data stream
            Rstring = sreader.ReadToEnd();//reads it to the end
            String Links = GetContent(Rstring);//gets the links only
            
            textBox2.Text = Rstring;
            textBox3.Text = Links;
            streamResponse.Close();
            sreader.Close();
            myWebResponse.Close();




        }

        private String GetContent(String Rstring)
        {
            String sString="";
            HTMLDocument d = new HTMLDocument();
            IHTMLDocument2 doc = (IHTMLDocument2)d;
            doc.write(Rstring);
            
            IHTMLElementCollection L = doc.links;
           
            foreach (IHTMLElement links in  L)
            {
                sString += links.getAttribute("href", 0);
                sString += "/n";
            }
            return sString;
        }
4

4 回答 4

11

我将您的 GetContent 方法修复如下,以从已爬网页面获取新链接:

public ISet<string> GetNewLinks(string content)
{
    Regex regexLink = new Regex("(?<=<a\\s*?href=(?:'|\"))[^'\"]*?(?=(?:'|\"))");

    ISet<string> newLinks = new HashSet<string>();    
    foreach (var match in regexLink.Matches(content))
    {
        if (!newLinks.Contains(match.ToString()))
            newLinks.Add(match.ToString());
    }

    return newLinks;
}

更新

修正:正则表达式应该是 regexLink。感谢@shashlearner 指出这一点(我的输入错误)。

于 2012-05-10T10:49:29.287 回答
8

我使用Reactive Extension创建了类似的东西。

https://github.com/Misterhex/WebCrawler

我希望它可以帮助你。

Crawler crawler = new Crawler();

IObservable observable = crawler.Crawl(new Uri("http://www.codinghorror.com/"));

observable.Subscribe(onNext: Console.WriteLine, 
onCompleted: () => Console.WriteLine("Crawling completed"));
于 2013-06-07T02:37:27.163 回答
2

以下包括一个答案/建议。

我相信您应该使用 adataGridView而不是 a textBox,因为当您在 GUI 中查看它时,更容易看到找到的链接(URL)。

你可以改变:

textBox3.Text = Links;

 dataGridView.DataSource = Links;  

现在的问题,你还没有包括:

using System.  "'s"

使用了哪些,如果我能弄明白它们,将不胜感激。

于 2012-09-13T14:33:24.653 回答
0

从设计的角度来看,我写了一些网络爬虫。基本上,您想使用 Stack 数据结构实现深度优先搜索。您也可以使用广度优先搜索,但您可能会遇到堆栈内存问题。祝你好运。

于 2012-09-13T14:41:11.103 回答