标签: machine-learning optimization hyperparameters
我试图理解Bengio和Bergsta的Random Search for Hyper-Parameter Optimization的结果,即需要随机搜索多少次迭代才能获得最佳解决方案的一定距离。
This SE answer帮助解释了一些细节,但我仍然感到困惑。
正在探索的超参数空间的大小是否会影响“接近”最佳结果所需的迭代次数?