互联网新闻情感分析
- 2019 年 10 月 4 日
- 筆記
互联网新闻情感分析
1 赛题简介
赛题简介:“互联网新闻情感分析”赛题,是CCF大数据与计算智能大赛赛题之一。对新闻情绪进行分类,0代 表正面情绪、1代表中性情绪、2代表负面情绪。(赛题官网https://www.datafountain.cn/competitions/350)
程序简介:开发工具是pycharm,使用GPU加速。所使用的关键库有pytorch、torchtext、numpy、pandas、visdom等。
2 项目结构
项目文件夹共包括以下文件及文件夹:
main.py 主程序,运行此程序模型开始训练以及测试。
net.py 定义网络结构,采用LSTM神经网络,最后一层是全连接层。
preprocess.py 预处理程序,对官方提供的csv文件进行处理,包括清理、分词、拆分数据集等工作。
trainfiles 存储预处理过程中与训练集有关的处理文件。
testfiles 存储预处理过程中与测试集有关的处理文件。
torchtextfiles 存储拆分好的训练集、验证集和测试集,供torchtext加载。
wordfiles 存储停用词文件和词向量文件。
3 预处理
官方提供的数据集有Train_DataSet.csv、Train_DataSet_Label.csv、Test_DataSet.csv。由于Train_DataSet.csv和Train_DataSet_Label.csv数据集中id字段不一致、三个数据集存在较多标点符号和无用符号、存在停用词、存在title和content字段分开等问题,所以在预处理阶段所做的主要工作有:提取共有的内容、清理数据集的标点符号和英文字符、对数据集进行分词、合并title和content字段、拆分数据集为训练集验证集和测试集等。
最后处理好的数据集包括train.csv、val.csv和test.csv,存放在torchtextfiles文件夹中。
# 针对官方训练集的处理示例 train_id = train_id('trainfiles/Train_DataSet.csv', 'trainfiles/Train_DataSet_Label.csv') train_dataset = train_dataset('trainfiles/Train_DataSet.csv', 'trainfiles/Train_DataSet_Label.csv', train_id) to_train = pd.DataFrame(train_dataset) to_train.to_csv('trainfiles/Train.csv', index=False, header=['id', 'title', 'content', 'label']) train_clear = train_clear('trainfiles/Train.csv') to_cleartext = pd.DataFrame(train_clear) to_cleartext.to_csv('trainfiles/Train_Clear.csv', index=False, header=['id', 'title', 'content', 'label']) train_word = sent2word('trainfiles/Train_Clear.csv') to_word = pd.DataFrame(train_word) to_word.to_csv('trainfiles/Train_Word.csv', index=False, header=['id', 'title', 'content', 'label']) train_joint = joint_titlecontent('trainfiles/Train_Word.csv') to_joint = pd.DataFrame(train_joint) to_joint.to_csv('trainfiles/Train_Joint.csv', index=False, header=['id', 'text', 'label'])
4 网络结构
采用的LSTM神经网络进行分类,网络层次依次是嵌入层,LSTM层、全连接层。嵌入层使用300维的词嵌入向量表示,h/c长度是128,全连接层输出是3。其余超参数设置查看main.py文件。
# 定义神经网络结构 import torch import torch.nn as nn class Net(nn.Module): def __init__(self, vocab_size, embedding_dim, hidden_dim): super(Net, self).__init__() # 单词=>[300] self.embedding = nn.Embedding(vocab_size, embedding_dim) # [embedding_dim]=>[hidden_dim] self.lstm = nn.LSTM(embedding_dim, hidden_dim, num_layers=2, bidirectional=True, dropout=0.5) # [hidden_dim*2]=>[3] self.fc = nn.Linear(hidden_dim * 2, 3) self.dropout = nn.Dropout(0.5) def forward(self, x): # x:[seq_len,b,1]=>[seq_len,b,embedding_dim] embedding = self.dropout(self.embedding(x)) # out: [seq_len, b, hid_dim*2] # h: [num_layers*2, b, hid_dim]=>[4,b,hidden_dim] # c: [num_layers*2, b, hid_dim] out, (h, c) = self.lstm(embedding) h = torch.cat([h[-2], h[-1]], dim=1) h = self.dropout(h) output = self.fc(h) return output
5 主程序训练验证和测试
共进行了50个epoch训练,在最后一个epoch上的分类准确率为0.97,验证集上的分类准确率为0.75,提交到官网的测试结果为0.69,该结果是用F1值计算得出。我认为该模型过拟合了。如需要请进行调参。

6 注意事项
本程序采用GPU加速,如果不使用GPU加速,请在main.py文件中删除相关语句。
本程序使用了visdom可视化工具,如果你没有安装该工具,可以在终端安装,并开启服务使用。如不使用,也可以在main.py文件中删除相关语句。
本程序使用了torchtext库,方便建立词典,shuffle等操作。
由于github对上传文件大小的限制,位于wordfiles文件夹中的词向量文件没有上传,如需要在该链接中下载,并放在wordfiles文件中。(链接地址https://pan.baidu.com/s/18T6DRVmS_cZu5u64EbbESQ)