我总是使用英语或德语的spacy库.
要加载库,我使用了以下代码:
import spacy
nlp = spacy.load('en')
我想使用西班牙语tokeniser,但我不知道怎么做,因为spacy没有西班牙语模型.
我试过这个
python -m spacy download es
然后:
nlp = spacy.load('es')
但显然没有任何成功.
有人知道如何以正确的方式用西班牙语标记西班牙语句子吗?
解决方法:
对于1.6版本,此代码正常工作:
from spacy.es import Spanish
nlp = Spanish()
但在版本1.7.2中,需要进行一些更改:
from spacy.es import Spanish
nlp = Spanish(path=None)
来源:@honnibal在gitter聊天
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。