如何使用Python nltk.tokenize将包含停用词的短语作为单个标记对待
发布时间:2020-05-24 22:07:25 所属栏目:Python 来源:互联网
导读:该问题与以下内容完全相同:How to prevent splitting specific words or phrases and numbers in NLTK?2个可以通过使用nltk.tokenize删除一些不必要的停用词
|
该问题与以下内容完全相同:>How to prevent splitting specific words or phrases and numbers in NLTK?2个 例如: 输入:特朗普是美国总统. 输出:[“特朗普”,“美国总统”] 如何获得仅删除“是”和第一个“ the”但不删除“ of”和第二个“ the”的结果? 最佳答案 您可以使用nltk的Multi-Word Expression Tokenizer,它可以将多单词表达式合并为单个标记.您可以创建一个包含多词表达式的词典,并向其添加条目,如下所示:
请注意,MWETokenizer将带标记文本的列表作为输入,然后对其进行重新标记.因此,首先标记该句子.使用word_tokenize(),然后将其输入MWETokenizer:
然后,过滤掉停用词以获得最终过滤的标记化句子:
输出: (编辑:安卓应用网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
