我最近正在研究文本蕴含性,我想知道有关大型数据集上文本蕴含性的当前研究项目。
我已经阅读了相同的研究论文,并想探讨是否有可能应用数据增强来使有限的数据集变得健壮甚至应用分层注意机制?
您的宝贵思想和建议非常赞赏
答案 0 :(得分:0)
您可以查看https://nlpprogress.com/english/semantic_textual_similarity.html的最新模型
自去年以来,转移学习和预训练的语言模型是一个重要主题,因此您可以看看https://github.com/huggingface/pytorch-transformers而不是数据扩充