Численное регрессионное тестирование
Я работаю над научным вычислительным кодом (написанным на C++), и в дополнение к выполнению модульных тестов для более мелких компонентов, я бы хотел провести регрессионное тестирование некоторых числовых выходных данных, сравнивая их с "известным-хорошим" ответ из предыдущих ревизий. Есть несколько функций, которые я хотел бы:
- Разрешить сравнение чисел с указанным допуском (как для ошибки округления, так и для более слабых ожиданий)
- Способность различать целые, двойные и т. Д. И игнорировать текст при необходимости
- Хорошо отформатированный вывод, чтобы сказать, что пошло не так и где: в таблице данных с несколькими столбцами показывать только запись в столбце, которая отличается
- Вернуть
EXIT_SUCCESS
или жеEXIT_FAILURE
в зависимости от того, совпадают ли файлы
Есть ли какие-нибудь хорошие сценарии или приложения, которые делают это, или мне придется свернуть свои собственные в Python, чтобы прочитать и сравнить выходные файлы? Конечно, я не первый человек с такими требованиями.
[Следующее не является строго релевантным, но оно может влиять на решение о том, что делать. Я использую CMake и его встроенную функциональность CTest для запуска модульных тестов, использующих каркас Google Test. Я думаю, что это не должно быть трудно добавить несколько add_custom_command
заявления в моем CMakeLists.txt
называть любое регрессионное программное обеспечение, которое мне нужно.]
4 ответа
В итоге я написал скрипт на Python, чтобы делать более или менее то, что хотел.
#!/usr/bin/env python
import sys
import re
from optparse import OptionParser
from math import fabs
splitPattern = re.compile(r',|\s+|;')
class FailObject(object):
def __init__(self, options):
self.options = options
self.failure = False
def fail(self, brief, full = ""):
print ">>>> ", brief
if options.verbose and full != "":
print " ", full
self.failure = True
def exit(self):
if (self.failure):
print "FAILURE"
sys.exit(1)
else:
print "SUCCESS"
sys.exit(0)
def numSplit(line):
list = splitPattern.split(line)
if list[-1] == "":
del list[-1]
numList = [float(a) for a in list]
return numList
def softEquiv(ref, target, tolerance):
if (fabs(target - ref) <= fabs(ref) * tolerance):
return True
#if the reference number is zero, allow tolerance
if (ref == 0.0):
return (fabs(target) <= tolerance)
#if reference is non-zero and it failed the first test
return False
def compareStrings(f, options, expLine, actLine, lineNum):
### check that they're a bunch of numbers
try:
exp = numSplit(expLine)
act = numSplit(actLine)
except ValueError, e:
# print "It looks like line %d is made of strings (exp=%s, act=%s)." \
# % (lineNum, expLine, actLine)
if (expLine != actLine and options.checkText):
f.fail( "Text did not match in line %d" % lineNum )
return
### check the ranges
if len(exp) != len(act):
f.fail( "Wrong number of columns in line %d" % lineNum )
return
### soft equiv on each value
for col in range(0, len(exp)):
expVal = exp[col]
actVal = act[col]
if not softEquiv(expVal, actVal, options.tol):
f.fail( "Non-equivalence in line %d, column %d"
% (lineNum, col) )
return
def run(expectedFileName, actualFileName, options):
# message reporter
f = FailObject(options)
expected = open(expectedFileName)
actual = open(actualFileName)
lineNum = 0
while True:
lineNum += 1
expLine = expected.readline().rstrip()
actLine = actual.readline().rstrip()
## check that the files haven't ended,
# or that they ended at the same time
if expLine == "":
if actLine != "":
f.fail("Tested file ended too late.")
break
if actLine == "":
f.fail("Tested file ended too early.")
break
compareStrings(f, options, expLine, actLine, lineNum)
#print "%3d: %s|%s" % (lineNum, expLine[0:10], actLine[0:10])
f.exit()
################################################################################
if __name__ == '__main__':
parser = OptionParser(usage = "%prog [options] ExpectedFile NewFile")
parser.add_option("-q", "--quiet",
action="store_false", dest="verbose", default=True,
help="Don't print status messages to stdout")
parser.add_option("--check-text",
action="store_true", dest="checkText", default=False,
help="Verify that lines of text match exactly")
parser.add_option("-t", "--tolerance",
action="store", type="float", dest="tol", default=1.e-15,
help="Relative error when comparing doubles")
(options, args) = parser.parse_args()
if len(args) != 2:
print "Usage: numdiff.py EXPECTED ACTUAL"
sys.exit(1)
run(args[0], args[1], options)
Вы должны пойти на PyUnit, который теперь является частью стандартной библиотеки под именем unittest
, Он поддерживает все, что вы просили. Например, проверка допуска assertAlmostEqual()
,
Утилита ndiff может быть близка к тому, что вы ищете: она похожа на diff, но она будет сравнивать текстовые файлы чисел с желаемым допуском.
Я знаю, что опаздываю на вечеринку, но несколько месяцев назад я написал утилиту nrtest, чтобы упростить этот рабочий процесс. Похоже, это может помочь вам тоже.
Вот краткий обзор. Каждый тест определяется своими входными файлами и ожидаемыми выходными файлами. После выполнения выходные файлы сохраняются в каталоге переносимых тестов. Затем второй шаг сравнивает этот эталон с эталонным эталоном. Недавнее обновление включило пользовательские расширения, так что вы можете определить функции сравнения для ваших пользовательских данных.
Я надеюсь, что это помогает.