7

我尝试了 Go Tour练习 #71

如果它像 一样运行go run 71_hang.go ok,它工作正常。

但是,如果您使用go run 71_hang.go nogood,它将永远运行。

唯一的区别是语句fmt.Print("")default的额外内容。select

我不确定,但我怀疑某种无限循环和竞争条件?这是我的解决方案。

注意:这不是死锁,因为 Go 没有throw: all goroutines are asleep - deadlock!

package main

import (
    "fmt"
    "os"
)

type Fetcher interface {
    // Fetch returns the body of URL and
    // a slice of URLs found on that page.
    Fetch(url string) (body string, urls []string, err error)
}

func crawl(todo Todo, fetcher Fetcher,
    todoList chan Todo, done chan bool) {
    body, urls, err := fetcher.Fetch(todo.url)
    if err != nil {
        fmt.Println(err)
    } else {
        fmt.Printf("found: %s %q\n", todo.url, body)
        for _, u := range urls {
            todoList <- Todo{u, todo.depth - 1}
        }
    }
    done <- true
    return
}

type Todo struct {
    url   string
    depth int
}

// Crawl uses fetcher to recursively crawl
// pages starting with url, to a maximum of depth.
func Crawl(url string, depth int, fetcher Fetcher) {
    visited := make(map[string]bool)
    doneCrawling := make(chan bool, 100)
    toDoList := make(chan Todo, 100)
    toDoList <- Todo{url, depth}

    crawling := 0
    for {
        select {
        case todo := <-toDoList:
            if todo.depth > 0 && !visited[todo.url] {
                crawling++
                visited[todo.url] = true
                go crawl(todo, fetcher, toDoList, doneCrawling)
            }
        case <-doneCrawling:
            crawling--
        default:
            if os.Args[1]=="ok" {   // *
                fmt.Print("")
            }
            if crawling == 0 {
                goto END
            }
        }
    }
END:
    return
}

func main() {
    Crawl("http://golang.org/", 4, fetcher)
}

// fakeFetcher is Fetcher that returns canned results.
type fakeFetcher map[string]*fakeResult

type fakeResult struct {
    body string
    urls []string
}

func (f *fakeFetcher) Fetch(url string) (string, []string, error) {
    if res, ok := (*f)[url]; ok {
        return res.body, res.urls, nil
    }
    return "", nil, fmt.Errorf("not found: %s", url)
}

// fetcher is a populated fakeFetcher.
var fetcher = &fakeFetcher{
    "http://golang.org/": &fakeResult{
        "The Go Programming Language",
        []string{
            "http://golang.org/pkg/",
            "http://golang.org/cmd/",
        },
    },
    "http://golang.org/pkg/": &fakeResult{
        "Packages",
        []string{
            "http://golang.org/",
            "http://golang.org/cmd/",
            "http://golang.org/pkg/fmt/",
            "http://golang.org/pkg/os/",
        },
    },
    "http://golang.org/pkg/fmt/": &fakeResult{
        "Package fmt",
        []string{
            "http://golang.org/",
            "http://golang.org/pkg/",
        },
    },
    "http://golang.org/pkg/os/": &fakeResult{
        "Package os",
        []string{
            "http://golang.org/",
            "http://golang.org/pkg/",
        },
    },
}
4

2 回答 2

16

以select 的工作方式default在您的更改中添加声明。select如果没有默认语句,select 将阻止等待通道上的任何消息。使用默认语句 select 将在每次从通道中读取任何内容时运行默认语句。在您的代码中,我认为这是一个无限循环。放入该fmt.Print语句是允许调度程序调度其他 goroutines。

如果您像这样更改代码,那么它可以正常工作,以非阻塞方式使用 select,这允许其他 goroutine 正常运行。

    for {
        select {
        case todo := <-toDoList:
            if todo.depth > 0 && !visited[todo.url] {
                crawling++
                visited[todo.url] = true
                go crawl(todo, fetcher, toDoList, doneCrawling)
            }
        case <-doneCrawling:
            crawling--
        }
        if crawling == 0 {
            break
        }
    }

如果您使用 GOMAXPROCS=2 可以使您的原始代码工作,这是调度程序在无限循环中忙碌的另一个提示。

请注意,goroutine 是协作调度的。我对您的问题不完全理解的是,这select是 goroutine 应该让步的一点 - 我希望其他人可以解释为什么它不在您的示例中。

于 2012-09-27T08:43:00.120 回答
5

您有 100% 的 CPU 负载,因为几乎所有时候默认情况都会被执行,从而有效地导致无限循环,因为它会一遍又一遍地执行。在这种情况下,Go 调度程序不会根据设计将控制权交给另一个 goroutine。因此,任何其他 goroutine 将永远没有机会设置crawling != 0,并且您将拥有无限循环。

在我看来,如果您想使用 select 语句,您应该删除默认情况并创建另一个通道。

否则,运行时包会帮助您走脏路:

  • runtime.GOMAXPROCS(2)将工作(或导出 GOMAXPROCS=2),这样您将拥有多个执行的 OS 线程
  • runtime.Gosched()不时在 Crawl 内部调用。尽管 CPU 负载是 100%,但这会明确地将控制权传递给另一个 Goroutine。

编辑:是的,以及 fmt.Printf 有所作为的原因:因为它明确地将控制权传递给一些系统调用的东西......;)

于 2012-10-03T16:05:43.760 回答