互联网技术 / 互联网资讯 · 2024年3月18日 0

文本文件分词、词频统计和可视化的手把手教程(附源码)

大家好!我是Python进阶者。

前言

前几天一个在校大学生问了一些关于词频、分词和可视化方面的问题,结合爬虫,确实可以做点东西出来,可以玩玩,还是蛮不错的,这里整理成一篇文章,分享给大家。

本文主要涉及的库有爬虫库requests、词频统计库collections、数据处理库nuMpy、结巴分词库jieba 、可视化库pyechaRts等等。

一、数据来源

关于数据方面,这里直接是从新闻平台上进行获取的文本信息,其实这个文本文件可以拓展开来,你可以自定义文本,也可以是报告,商业报告,政治报告等,也可以是新闻平台,也可以是论文,也可以是微博热评,也可以是网易云音乐热评等等,只要涉及到大量文本的,都可月引用本文的代码,进行词频分词、统计、可视化等。

二、数据获取

数据获取十分简单,一个简单的爬虫和存储就可以搞定,这里以一篇新闻为例进行演示,代码如下:

代码运行之后,在本地会得到一个【报告.txt】文件,文件内容就是网站上的文本信息。如果你想获取其他网站上的文本,需要更改下链接和提取规则。

文本文件分词、词频统计和可视化的手把手教程(附源码)

三、词频统计

接下来就是词频统计了,代码如下所示。

首先读取文本信息,之后对文本进行预处理,提取文字信息,并且可以自定义词库,作为停用词,之后将获取到的词频做词频统计,获取前30最高频的词,并进行打印,输出结果如下图所示。

文本文件分词、词频统计和可视化的手把手教程(附源码)

四、可视化

接下来就是可视化部分了,这里直接上代码,如下所示。

输出结果是一个线图,看上去还不错。

文本文件分词、词频统计和可视化的手把手教程(附源码)

五、总结

本文基于Python网络爬虫获取到的文本文件,通过词频、分词和可视化等处理,完成一个较为简单的项目,欢迎大家积极尝试。在代码实现过程中,如果有遇到任何问题,请加我好友,我帮助解决哦!