我发现自己必须一直学习新事物。我一直在想办法加快学习新学科的过程。我认为如果我可以编写一个程序来解析维基百科文章并删除除最有价值的信息之外的所有内容,那可能会很简洁。
我首先阅读了关于PDF的 Wikipedia 文章并提取了前 100 个句子。我根据我认为它的价值给每个句子打分。我最终创建了一个以下格式的文件:
<sentence>
<value>
<sentence>
<value>
etc.
然后我解析了这个文件并试图找到将每个句子与我给它的值相关联的各种函数。我刚刚开始学习机器学习和统计等等,所以我在这里做了很多摸索。这是我的最新尝试: https ://github.com/JesseAldridge/Wikipedia-Summarizer/blob/master/plot_sentences.py 。
我尝试了一堆似乎根本没有产生任何相关性的东西——平均字长、文章中的位置等。几乎唯一能产生任何有用关系的东西就是字符串的长度(更具体地说,计算小写字母“e”的数量似乎效果最好)。但这似乎有点蹩脚,因为很明显更长的句子更有可能包含有用的信息。
有一次,我以为我找到了一些有趣的函数,但是当我尝试删除异常值(仅计算内部四分位数)时,结果发现它们产生的结果更差,然后只为每个句子返回 0。这让我想知道我可能做错了多少其他事情......我也想知道这是否是解决这个问题的好方法。
你认为我在正确的轨道上吗?或者这只是一个傻瓜的差事?链接代码中是否存在明显的缺陷?有谁知道解决总结维基百科文章问题的更好方法?我宁愿有一个快速而肮脏的解决方案,而不是需要很长时间才能完成的完美解决方案。也欢迎任何一般性建议。