我一直在从事一个相当大的 Python 项目,并进行了许多测试。
应用程序的某些特定部分需要一些 CPU 密集型测试,而我们在提交之前测试所有内容的方法不再有意义。
从那时起,我们就采用了基于标签的选择性测试方法。问题是,随着代码库的增长,维护所述标记方案变得有些麻烦,我想开始研究我们是否可以构建更智能的东西。
在之前的工作中,测试系统只测试受提交更改影响的代码。
似乎Mighty MooseCLR
对语言采用了类似的方法。以这些为灵感,我的问题是,项目中的智能选择性测试有哪些替代方案(如果有的话)Python
?
如果没有,构建这样的东西有什么好的初始方法?