微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

python – 使用spacy西班牙语Tokenizer

我总是使用英语或德语的spacy库.

要加载库,我使用了以下代码

import spacy
nlp = spacy.load('en')

我想使用西班牙语tokeniser,但我不知道怎么做,因为spacy没有西班牙语模型.
我试过这个

python -m spacy download es

然后:

nlp = spacy.load('es')

但显然没有任何成功.

有人知道如何以正确的方式用西班牙语标记西班牙语句子吗?

解决方法:

对于1.6版本,此代码正常工作:

from spacy.es import Spanish
nlp = Spanish()

但在版本1.7.2中,需要进行一些更改:

from spacy.es import Spanish
nlp = Spanish(path=None)

来源:@honnibal在gitter聊天

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐