中科院中文分词
中科院的中文分词工具,用起来挺顺手的,适合大段文本那种需求。支持多种语言调用,比如 .NET 和 Python,而且有现成的 DLL
和 Demo,拿来就能跑,效率还不错。
配合 Lucene 做全文检索也蛮合适,网上还有人搞了 Lucene.NET
的实现,省了不少事。你要是做搜索、文本之类的功能,这工具还挺靠谱。
另外也可以看看 Jieba 或 PanGu,各有特点。中科院这个优点是稳定,适合跑在线服务;不过接口文档有点老,建议边看 Demo 边调试。
哦对了,链接我也顺手整理好了,想试哪个就点进去看看,直接能下代码:
如果你做中文文本,是想要个靠谱点的分词工具,可以优先考虑它,配合你项目技术栈选对应语言的版本就行。
2.59MB
文件大小:
评论区