您好, 欢迎来到 !    登录 | 注册 | | 设为首页 | 收藏本站

如何在熊猫数据框上将NLTK word_tokenize库应用于Twitter数据?

如何在熊猫数据框上将NLTK word_tokenize库应用于Twitter数据?

简而言之:

df['Text'].apply(word_tokenize)

或者,如果您想添加另一列来存储标记化的字符串列表:

df['tokenized_text'] = df['Text'].apply(word_tokenize)

有专门针对Twitter文本编写的标记生成器,请参见http://www.nltk.org/api/nltk.tokenize.html#module- nltk.tokenize.casual

使用方法nltk.tokenize.TweetTokenizer

from nltk.tokenize import TweetTokenizer
tt = TweetTokenizer()
df['Text'].apply(tt.tokenize)
其他 2022/1/1 18:32:10 有657人围观

撰写回答


你尚未登录,登录后可以

和开发者交流问题的细节

关注并接收问题和回答的更新提醒

参与内容的编辑和改进,让解决方法与时俱进

请先登录

推荐问题


联系我
置顶