我有一个带有 url 的列表,我喜欢用 CURL 加载它,并使用 bash 脚本对结果进行一些操作。由于它几乎是 100k 请求,我喜欢并行运行它。我已经研究了 GNU 并行,但是我要如何将所有内容粘合在一起呢?谢谢!
脚本:
while read URL; do
curl -L -H "Accept: application/unixref+xml" $URL > temp.xml;
YEAR=$(xmllint --xpath '//year' temp.xml);
MONTH=$(xmllint --xpath '(//date/month)[1]' temp.xml);
echo "$URL;$YEAR;$MONTH" >> results.csv;
sed -i '1d' urls.txt;
done < urls.txt;