3

我正在编写一个科学计算代码(用 C++ 编写),除了对较小的组件执行单元测试之外,我还想通过与“已知良好”进行比较来对一些数值输出进行回归测试从以前的修订中回答。我想要一些功能:

  • 允许将数字与指定的容差进行比较(对于舍入误差和更宽松的期望)
  • 能够区分整数、双精度等,并在必要时忽略文本
  • 格式正确的输出,告诉您哪里出了问题:在多列数据表中,仅显示不同的列条目
  • 返回EXIT_SUCCESSEXIT_FAILURE取决于文件是否匹配

是否有任何好的脚本或应用程序可以做到这一点,或者我是否必须在 Python 中编写自己的脚本或应用程序来读取和比较输出文件?当然,我不是第一个有这种要求的人。

[以下内容并不严格相关,但它可能会成为决定做什么的因素。我使用 CMake 及其嵌入式 CTest 功能来驱动使用 Google 测试框架的单元测试。add_custom_command我想在我的代码中添加一些语句CMakeLists.txt来调用我需要的任何回归软件应该不难。]

4

4 回答 4

3

您应该选择PyUnit,它现在是名称下的标准库的一部分unittest。它支持您所要求的一切。例如,公差检查是用 完成的assertAlmostEqual()

于 2009-06-28T18:51:39.677 回答
0

ndiff实用程序可能与您要查找的内容接近:它类似于 diff,但它会将数字文本文件与所需的容差进行比较。

于 2009-07-01T01:33:15.837 回答
0

我最终编写了一个 Python 脚本来或多或少地做我想做的事。

#!/usr/bin/env python

import sys
import re
from optparse import OptionParser
from math import fabs

splitPattern = re.compile(r',|\s+|;')

class FailObject(object):
    def __init__(self, options):
        self.options = options
        self.failure = False

    def fail(self, brief, full = ""):
        print ">>>> ", brief
        if options.verbose and full != "":
            print "     ", full
        self.failure = True


    def exit(self):
        if (self.failure):
            print "FAILURE"
            sys.exit(1)
        else:
            print "SUCCESS"
            sys.exit(0)

def numSplit(line):
    list = splitPattern.split(line)
    if list[-1] == "":
        del list[-1]

    numList = [float(a) for a in list]
    return numList

def softEquiv(ref, target, tolerance):
    if (fabs(target - ref) <= fabs(ref) * tolerance):
        return True

    #if the reference number is zero, allow tolerance
    if (ref == 0.0):
        return (fabs(target) <= tolerance)

    #if reference is non-zero and it failed the first test
    return False

def compareStrings(f, options, expLine, actLine, lineNum):
    ### check that they're a bunch of numbers
    try:
        exp = numSplit(expLine)
        act = numSplit(actLine)
    except ValueError, e:
#        print "It looks like line %d is made of strings (exp=%s, act=%s)." \
#                % (lineNum, expLine, actLine)
        if (expLine != actLine and options.checkText):
            f.fail( "Text did not match in line %d" % lineNum )
        return

    ### check the ranges
    if len(exp) != len(act):
        f.fail( "Wrong number of columns in line %d" % lineNum )
        return

    ### soft equiv on each value
    for col in range(0, len(exp)):
        expVal = exp[col]
        actVal = act[col]
        if not softEquiv(expVal, actVal, options.tol):
            f.fail( "Non-equivalence in line %d, column %d" 
                    % (lineNum, col) )
    return

def run(expectedFileName, actualFileName, options):
    # message reporter
    f = FailObject(options)

    expected  = open(expectedFileName)
    actual    = open(actualFileName)
    lineNum   = 0

    while True:
        lineNum += 1
        expLine = expected.readline().rstrip()
        actLine = actual.readline().rstrip()

        ## check that the files haven't ended,
        #  or that they ended at the same time
        if expLine == "":
            if actLine != "":
                f.fail("Tested file ended too late.")
            break
        if actLine == "":
            f.fail("Tested file ended too early.")
            break

        compareStrings(f, options, expLine, actLine, lineNum)

        #print "%3d: %s|%s" % (lineNum, expLine[0:10], actLine[0:10])

    f.exit()

################################################################################
if __name__ == '__main__':
    parser = OptionParser(usage = "%prog [options] ExpectedFile NewFile")
    parser.add_option("-q", "--quiet",
                      action="store_false", dest="verbose", default=True,
                      help="Don't print status messages to stdout")

    parser.add_option("--check-text",
                      action="store_true", dest="checkText", default=False,
                      help="Verify that lines of text match exactly")

    parser.add_option("-t", "--tolerance",
                      action="store", type="float", dest="tol", default=1.e-15,
                      help="Relative error when comparing doubles")

    (options, args) = parser.parse_args()

    if len(args) != 2:
        print "Usage: numdiff.py EXPECTED ACTUAL"
        sys.exit(1)

    run(args[0], args[1], options)
于 2009-07-15T18:03:49.053 回答
0

我知道我参加聚会已经很晚了,但几个月前我编写了nrtest实用程序,试图使这个工作流程更容易。听起来它也可以帮助你。

这是一个快速概述。每个测试由其输入文件和预期的输出文件定义。执行后,输出文件存储在可移植的基准目录中。然后第二步将该基准与参考基准进行比较。最近的更新启用了用户扩展,因此您可以为自定义数据定义比较函数。

我希望它有所帮助。

于 2016-03-12T06:26:23.580 回答