我现在正在使用spaCy来确定两个字符串之间的语义相似性。它运作良好,只需要几行代码,所有的工作都在幕后完成:
>>> import spacy
>>> nlp = spacy.load('en')
>>> nlp('string').similarity(nlp('another string'))
0.796
然而,它需要~600mb的模块数据。因为我在Heroku上主持这远远超过了可用的slu size尺寸。我正在寻找托管的其他替代方案,但是我可以使用另一个框架吗?我不需要spacy的“工业强度”,但是其他框架似乎不能正常工作/不能快速实现。
答案 0 :(得分:2)
spaCy模型,从v1.7.0开始,可以作为Python包安装。这个 意味着它们是您应用程序的一个组件,就像任何一个组件一样 其他模块。
这是最近推出的,2017年3月20日,一个50 MB的型号:
en_core_web_sm 50 MB Vocab,syntax,entities,word vectors
您在网页上有更多详细信息 https://spacy.io/docs/usage/models