我有一组输入输出训练数据,很少有样本
Input output
[1 0 0 0 0] [1 0 1 0 0]
[1 1 0 0 1] [1 1 0 0 0]
[1 0 1 1 0] [1 1 0 1 0]
等等。我需要将整个输出的标准偏差应用为阈值。所以,我计算输出的平均标准偏差。应用程序是模型在呈现此数据时应该能够学习和预测输出。我的目标函数设计中存在一个条件,即距离=模型输出与所需目标之间的欧氏距离的平方和,对应于输入应小于阈值。
我的问题是我应该如何证明使用阈值?这有道理吗?我读过这篇文章article,其中说标准偏差作为阈值是很常见的。
就我而言,取得训练数据输出的标准差是什么意思?
答案 0 :(得分:0)
我不确定这个想法是否适用。您正在查看单变量值的标准偏差定义,但您的输出是多变量的。有多变量类似物,但是,你不清楚为什么需要在这里应用它。
听起来你正在最小化输出和已知正确输出之间的平方误差或欧几里德距离。这很好,让我觉得你在预测这里显示的多变量输出。那时的门槛是多少?输入是否小于什么衡量标准?
答案 1 :(得分:0)
std偏差(或方差)背后没有直觉/哲学,像这些衡量标准的统计学家纯粹因为它们在数学上很容易使用,因为各种不错的属性。见https://math.stackexchange.com/questions/875034/does-expected-absolute-deviation-or-expected-absolute-deviation-range-exist
还有很多其他方法可以执行各种形式的外部检测,信念修正等,但它们在数学上可能更具挑战性。