中科院中文分词

中科院的中文分词工具,用起来挺顺手的,适合大段文本那种需求。支持多种语言调用,比如 .NETPython,而且有现成的 DLL 和 Demo,拿来就能跑,效率还不错。

配合 Lucene 做全文检索也蛮合适,网上还有人搞了 Lucene.NET 的实现,省了不少事。你要是做搜索、文本之类的功能,这工具还挺靠谱。

另外也可以看看 JiebaPanGu,各有特点。中科院这个优点是稳定,适合跑在线服务;不过接口文档有点老,建议边看 Demo 边调试。

哦对了,链接我也顺手整理好了,想试哪个就点进去看看,直接能下代码:

如果你做中文文本,是想要个靠谱点的分词工具,可以优先考虑它,配合你项目技术栈选对应语言的版本就行。

rar 文件大小:2.59MB