在这种情况下,主持人预先批准图像是不切实际的。
我想到了两个解决方案:
- 有一个标记/报告按钮,如果每次查看该图像被报告一定次数,则会自动删除该图像。
- 使用检测图像中裸露的库。
第一种方式的问题是:a)我必须提出一个不太敏感或不够灵敏的阈值数字b)这种报告方法必然会让人看到他们报告之前的图像。
第二种方式的问题在于,从我所读到的,裸露的图像检测通常是不可靠的。
所以我想我想知道正常的做法必须是什么。应用程序商店中有如此多的应用程序,用户生成的内容必须有一个很好的方法来执行此操作。我的主要担心/问题是Apple会禁止有任何色情内容的应用,即使开发者采取了一些他可以采取的适当行动来防止这种情况发生。如果我使用这两种方法的组合,我觉得它可以接受我的应用程序,但苹果会禁止任何泄漏一点色情的应用程序?还有更好的方法吗?
答案 0 :(得分:0)
由于我没有很多使用CoreML的经验,因此无法在此给出过多详细的答案,但您可以尝试将CoreML与机器学习模型一起使用以进行裸露(您应该使用它)能够免费查找),并过滤用户使用模型上传的每个图像/视频。