2

所以我正在制作一个程序,它会提示用户输入一个 URL,程序会对其进行分析,并为您提供与该网站关联的所有文件/链接,就像您使用实时 HTTP 标头时一样(您获得所有链接到图片)。所以如果网站是 google.com 它会列出这个 -> www.google.com www.google.com/banner.jpg www.google.com/file.js www.google.com/news.doc

例如:1)用户进入网站并开始分析 2)程序列出所有网站文件 3)在列表框中输出的数据

我无法做到这一点,因为我没有理论代码。

4

2 回答 2

0

在其他情况下,您尝试构建的内容称为网络爬虫。

这个网站有很好的解释和一些代码示例: http: //www.developerfusion.com/article/84330/building-a-web-crawler/

于 2013-05-07T20:19:07.477 回答
0

对于初学者,您可以执行以下操作来获取 HTML,然后使用HTML Agility Pack来获取您需要的内容:

Imports System.Net
Imports System.IO

Public Class Form1

    Private Sub Button1_Click(sender As System.Object, e As System.EventArgs) Handles Button1.Click

       Dim myurl As String = "http://www.stackoverflow.com"
       Dim wc As WebClient = New WebClient()
       Dim reader As StreamReader = New StreamReader(wc.OpenRead(myurl))
       doSomethingToMyHTML(reader.ReadToEnd)

    End Sub
    Private Sub doSomethingToMyHTML(textinput As String)
         'get what you want with HTML Agility Pack
    End Sub
End Class 
于 2013-05-08T20:34:05.393 回答