首先提问,然后解释一下你是否感兴趣。
在py.test的上下文中,如何从一小组测试函数模板生成大量测试函数?
类似的东西:
models = [model1,model2,model3]
data_sets = [data1,data2,data3]
def generate_test_learn_parameter_function(model,data):
def this_test(model,data):
param = model.learn_parameters(data)
assert((param - model.param) < 0.1 )
return this_test
for model,data in zip(models,data_sets):
# how can py.test can see the results of this function?
generate_test_learn_parameter_function(model,data)
说明:
我正在努力进行单元测试。我为“科学”编码,因为我编写的代码在数学上是复杂的,但从编程的角度来看并不是那么糟糕,即我可能有五个函数需要测试。我来自'科学'意味着我对单元测试很陌生,但已经让我的CS好友相信这是事情。
我正在编写的代码采用模型结构,一些数据,并学习模型的参数。所以我的单元测试包括一堆模型结构和预先生成的数据集,然后是一组约5个机器学习任务来完成每个结构+数据。
因此,如果我手动编码,每个任务每个模型需要一次测试。每次我想出一个新模型时,我都需要复制并粘贴5个任务,改变我所指向的酸洗结构+数据。这对我来说感觉不好。理想情况下,我想要的是5个模板函数,它们定义了我的5个任务中的每一个,然后只是为我指定的结构列表吐出测试函数。
谷歌搜索带来了a)工厂或b)闭包,这两者都使我的大脑变得更加困难并向我建议必须有一种更简单的方法,因为这个问题必须由适当的程序员定期面对。那有吗?编辑:所以这是如何解决这个问题的!
def pytest_generate_tests(metafunc):
if "model" in metafunc.funcargnames:
models = [model1,model2,model3]
for model in models:
metafunc.addcall(funcargs=dict(model=model))
def test_awesome(model):
assert model == "awesome"
这会将test_awesome测试应用于我的模型列表中的每个模型!谢谢@dfichter!
(注意:断言总是通过,顺便说一下)
答案 0 :(得分:15)
良好的直觉。 py.test
正好支持您使用pytest_generate_tests()
挂钩所谈论的内容。他们解释了它here。
答案 1 :(得分:6)
你也可以使用parametrized fixtures来做到这一点。虽然钩子是用于为Py.test构建插件的API,但参数化夹具是一种通用的方法,可以生成输出多个值的夹具并为它们生成其他测试用例。
插件应该是一些项目范围(或程序包范围)的功能,而不是测试用例特定功能和参数化设备正是为测试用例参数化某些资源所需的。
所以你的解决方案可以改写为:
@pytest.fixture(params=[model1, model2, model3])
def model(request):
return request.param
def test_awesome(model):
assert model == "awesome"