翻译Over了

  本来老师给了一篇,但字数还不够。所以自己又找了一篇。
  这篇是关于中文分词的,《不使用词库和手动训练数据的中文分词》中国人写的英文论文。还是很有意思的。 哪天有空了自己实现一个看看。而老师给的那篇我翻完了还没搞懂。

摘要:中文分词是任何NLP(自然语言处理系统)的第一步。本文展示了一种新的不使用任何词库和手动语料的中文分词算法。算法需要的统计数据,即字符间的相互信息和t分值的差异是从原始中文集中自动得出的。预备实验显示了我们的分词精度是可接受的。我们希望这个方法的成果可以该经已存在的分词的性能(尤其是处理未知词的能力和适应不同领域的能力),尽管这个算法本身也可以在一些NLP应用中被用来作为一个独立的分词器。

7 thoughts on “翻译Over了

  1. chengnan1985

    呵呵~!
    刚下班回寝室,看到你的留言很高兴!你是我的第一位留言者哦。没错,我是一个技术爱好者,希望以后大家可以多多交流,不光是技术~其他方面都好!先跟你做个链接了,希望能结识到更多的朋友!:P

    Reply

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.