我正在尝试遵循和修改this notebook以合并超参数调整,而不是简单地构建随机森林模型。但是我在理解如何做到这一点上遇到了麻烦。我的第一个问题是:在两个单元格中设置了超参数-首先在写入$SCRIPT_FILENAME
的单元格中将n_estimators
和min_samples_leaf
分别设置为10和3,然后在单元格中再次设置launch_training_job()
的定义分别设置为100和3。为什么要定义两次?运行代码时,n_estimators
似乎使用了100,那么将其定义为早10的意义何在?
第二个问题,从这个post看来,有一种方法可以进行自动模型调整。但我看不到如何执行此操作的示例。有人可以分享或启发我将超参数调整合并到SageMaker Scikit Learn容器中的方法吗?
答案 0 :(得分:0)
HPO是SageMaker中的通用功能,无论您使用哪种算法或框架,它都可以正常工作。此处提供了大量示例:https://github.com/awslabs/amazon-sagemaker-examples/tree/master/hyperparameter_tuning