本来老师给了一篇,但字数还不够。所以自己又找了一篇。
这篇是关于中文分词的,《不使用词库和手动训练数据的中文分词》中国人写的英文论文。还是很有意思的。 哪天有空了自己实现一个看看。而老师给的那篇我翻完了还没搞懂。
摘要:中文分词是任何NLP(自然语言处理系统)的第一步。本文展示了一种新的不使用任何词库和手动语料的中文分词算法。算法需要的统计数据,即字符间的相互信息和t分值的差异是从原始中文集中自动得出的。预备实验显示了我们的分词精度是可接受的。我们希望这个方法的成果可以该经已存在的分词的性能(尤其是处理未知词的能力和适应不同领域的能力),尽管这个算法本身也可以在一些NLP应用中被用来作为一个独立的分词器。
Hi,I’ve translated some articles on Elanso, would you please give me some comments?
http://www.elanso.com/Common/ArticleCompare.aspx?ArticleID=KAG9GwS4SsGTUKG9KAPUPAIi
路过,洒点水
呵呵~!
刚下班回寝室,看到你的留言很高兴!你是我的第一位留言者哦。没错,我是一个技术爱好者,希望以后大家可以多多交流,不光是技术~其他方面都好!先跟你做个链接了,希望能结识到更多的朋友!:P
Nb
分词原理是啥?把你翻译的文章也贴出来吧
刚才光顾占领沙发了,URL写错了,重新来过……
蛮好的,恭喜的哈:)
接下来就是毕设了吧?加油哦!