• 技术文章 >后端开发 >Python教程

    有哪些高质量的中文分词api?

    2016-06-06 16:23:12原创721
    最好多多推荐一些对中国本土的一些互联网用词——比如说“卧槽,给力,牛逼,好六,六六六,水贴,爆吧,女票,男票,蓝孩子,孩纸”之类的俚语也能有很好的分词能力的中文分词API就好了。

    回复内容:

    稍微体验过的,简单收录下
    1. 哈工大:语言云(语言技术平台云 LTP-Cloud)
    2. 东北大学NiuTrans统计机器翻译系统:东北大学自然语言处理实验室
    3. 中科院张华平博士ICTCLAS :NLPIR汉语分词系统
    4. 波森科技:首页 - BosonNLP
    5. 结巴:fxsjy/jieba · GitHub
    6. Ansj分词:中国自然语言开源组织
    没有特别对比,2和3貌似没有API 楼上暴君说得很详细了,我就贴一个我觉得分词最准确的一个吧
    http://bosonnlp.com/

    总的来说很准确,当然也不是任何时候都管用...... 233333333
    结巴分词。项目地址:fxsjy/jieba · GitHub
    >>>seg_list = jieba.cut("他来到了网易杭研大厦") 
    >>>print ", ".join(seg_list)
    , 来到, , 网易, 杭研, 大厦
    
    pullword在线分词服务__API服务_API服务_API Store 除了jieba补充两个,一个是哈工大的语言云,另一个是波森科技的NLP API。不过我没有对这三者进行横向测评过。 我用过jieba效果还阔以,用的不多。 不过听说stanfordnlp也支持中文分词,容我崇洋媚外一把 也许stanford更牛逼一点 张华平博士的东西什么都好,就是要定期更新用户授权 我用过腾讯文智的API觉得还行,简单,分词效果不错。可以试一试 词云的制作方法 以前用的庖丁解牛分词器 ,不过是潜入到lucene里面用的。对中文分词 挺不错的
    声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn核实处理。
    专题推荐:API
    上一篇:在 Python 中,为什么 pow 这样的函数可以直接调用,而 floor 这样的函数得先导入模块? 下一篇:学完python后,该如何开始django学习?
    Web大前端开发直播班

    相关文章推荐

    • 三种方法使用For循环遍历Python字典(实例详解)• python常用机器学习及深度学习库介绍(总结分享)• 带你搞懂Python反序列化• 归纳整理Python正则表达式知识点• Python数据结构与算法学习之双端队列
    新人一分购

    全部评论我要评论

  • 取消发布评论发送
  • 1/1

    PHP中文网