所以我在一组自己的图像上进行字典学习,大量适应denoising example。我粗略的工作流程是:
n_images
,2700)。 dico = MiniBatchDictionaryLearning(n_components=5000, alpha=2, transform_algorithm='omp', n_iter=1000)
V = dico.fit(data).components_`
但是我的字典仍在学习一些噪音,后来影响了编码表示。
n_components
和alpha
有任何指示?原版论文主要由迈克尔·埃拉德(Michael Elad)撰写,并没有很多这样的执行细节。我考虑过grid search,但我想先看看是否有任何方便的分析指针或启发式算法,因为每次运行的惩罚性运行时间。上面的小代码片段耗时13h。n_iter
仅仅是#34}的情况,越多越好"?从文档中,此方法没有终止的容差标准,因此必须手动输入迭代次数。