我们打算用一些不适合float64或TensorFlow中任何其他现有数据类型的数据来训练ANN。例如,输入神经元可能会收到:
1.13760089015656552359796023723738662029191734968655617689014826158791613333
我有两个问题:
如果没有一个清晰便捷的解决方案,您认为将数据转换为complex128是否会对我们有所帮助?例如:
1.137600890156565523597960237237 + 73866202919173496865561768901 i
对于我们来说,浮点数越大,精度越高。因此,我们需要尽可能多地保留它们。
我们更喜欢使用GPU,因此解决方案应该涵盖它们。
答案 0 :(得分:0)
您是否考虑过预处理数据?如此高的精度很难看到明显的重要差异。仅在这样的平面空间上操作时,可能也很难计算出有意义的梯度。