一、安装Spark
1.检查基础环境
启动hdfs查看进程
查看hadoop和jdk环境
2.下载spark
3.配置环境变量
4.启动spark
5.试运行python代码
1.准备文本文件
从网上下载一篇名为《hamlet》的小说,命名为hamlet.txt
2.读文件
txt = open("../../resources/hamlet.txt", "r").read()
读取hamlet.txt英文小说文件并赋值给txt
3.预处理:大小写,标点符号,停用词
txt = txt.lower() #使所有的英文字符变成小写
# 循环把txt中的特殊字符全替换成 空格 for ch in ' !"#$%&()*+-,./:;<=>?@[\\]^_‘{|}~ ': txt = txt.replace(ch, " ")
excludes = {"to", "of", "i", "a"}
for word in excludes: #停用词循环删除
del counts[word]
4.分词
words = hamletTxt.split() # 将字符串中的信息进行分隔,并以列表的形式返回给变量
for word in words: # counts.get函数:用来获取某一个键对应的值,即当前给出的键作为索引字,如果在里边,返回 # 它的次数后面再+1,说明这个单词又出现了一次;如果单词不在字典中,则把它加到字典中,并且 # 赋给当前的值为0 counts[word] = counts.get(word, 0) + 1
6.按词频大小排序
# 按照键值对的2个元素的第二个元素进行排序,排序的方式是(reverse=true)由大到小 倒排 items.sort(key=lambda x: x[1], reverse=True)
7.结果写文件
items = str(counts.items()) # 装换成字符串类型 with open("hamlet_wordCount.txt", 'w', encoding='utf-8')as fp: fp.write(items)
8.运行结果
9.全部代码展示
# 组合数据类型,文本词频统计 Hamlet def getText(): txt = open("../../resources/hamlet.txt", "r").read() txt = txt.lower() # 使所有的英文字符变成小写 # 循环把txt中的特殊字符全替换成 空格 for ch in ' !"#$%&()*+-,./:;<=>?@[\\]^_‘{|}~ ': txt = txt.replace(ch, " ") return txt excludes = {"to", "of", "i", "a"} hamletTxt = getText() words = hamletTxt.split() # 将字符串中的信息进行分隔,并以列表的形式 返回给变量 counts = {} for word in words: # counts.get函数:用来获取某一个键对应的值,即当前给出的键作为索引字,如果在里边,返回 # 它的次数后面再+1,说明这个单词又出现了一次;如果单词不在字典中,则把它加到字典中,并且 # 赋给当前的值为0 counts[word] = counts.get(word, 0) + 1 for word in excludes: # 停用词删除 del counts[word] items = list(counts.items()) # 按照键值对的2个元素的第二个元素进行排序,排序的方式是(reverse=true)由大到小 倒排 items.sort(key=lambda x: x[1], reverse=True) # 打印前十个出现最多的单词 以及 它对应的次数 for i in range(10): word, count = items[i] count = str(count) print("{0:<10}{1:>5}".format(word, count)) items = str(counts.items()) # 装换成字符串类型,结果保存文件 with open("hamlet_wordCount.txt", 'w', encoding='utf-8')as fp: fp.write(items)
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。