您好,欢迎访问一九零五行业门户网

从决策树到Transformer——餐厅评论情感分析模型比较

译者 | 朱先忠​
审校 | 孙淑娟​
本文将展示各种流行机器学习模型和嵌入技术对马其顿餐厅评论情感分析的有效性,探索并比较几种经典的机器学习模型以及包括神经网络和transformers在内的现代深度学习技术。实验表明,采用最新openai嵌入的微调transformers模型和深度学习模型远远优于其他方法。​
虽然用于自然语言处理的机器学习模型传统上侧重于如英语和西班牙语等流行语言;但是,在不太常用语言的发展方面其相关机器学习模型的研究与应用要少得多。另一方面,随着新冠肺炎疫情导致电子商务的兴起,马其顿语等不太常见的语言也通过在线评论产生了大量数据。这为开发和训练马其顿餐厅评论情感分析的机器学习模型提供了机会;成功的话,这可以帮助企业更好地了解客户情感并改善相关服务。在这项研究中,我们解决了这个问题带来的挑战,并探索和比较了马其顿餐厅评论中用于分析情绪的各种情感分析模型,从经典的随机森林到现代深度学习技术和transformers等。​
首先,我们给出本文内容的提纲:​
挑战和数据预处理​创建向量嵌入laser嵌入​多语言通用文本编码器​openai ada v2​机器学习模型随机森林​xgboost​支持向量机​深度学习​transformers​结果和讨论​未来的工作​结论​预处理数据​语言是一种独特的人类交流工具,如果没有适当的处理技术,计算机无法解释语言。为了让机器能够分析和理解语言,我们需要以可计算处理的方式表示复杂的语义和词汇信息。实现这一点的一种流行方法是使用向量表示。近年来,除了特定语言的表示模型之外,还出现了多语言模型。这些模型可以捕获大量语言上文本的语义上下文。​
然而,对于使用西里尔(cyrillic)文字的语言,由于互联网上的用户经常使用拉丁文字来表达自己,从而产生了由拉丁文字和西里尔文字组成的混合数据;这样一来,就产生了一个额外的挑战。为了应对这一挑战,我使用了一家当地餐馆的数据集,其中包含大约500条评论——其中包含拉丁语和西里尔语脚本。数据集还包括一小部分英语评论,这将有助于评估混合数据的表现。此外,在线文本可能包含需要删除的符号,如表情符号。因此,在执行任何文本嵌入之前,预处理是至关重要的步骤。​
import pandas as pd​ import numpy as np​ #把数据集加载进一个dataframe​ df = pd.read_csv('/content/data.tsv', sep='t')​ # 注意sentiment类别的分布情况​ df['sentiment'].value_counts()​ # -------​ # 0 337​ # 1 322​ # name: sentiment, dtype: int64​
注意到,数据集包含了分布几乎相等的正负类。为了删除表情符号,我使用了python库emoji,它可以轻松删除表情符号和其他符号。​
!pip install emoji​ import emoji​ clt = []​ for comm in df['comment'].to_numpy():​ clt.append(emoji.replace_emoji(comm, replace=))​ df['comment'] = clt​ df.head()​
对于西里尔文和拉丁文的问题,我将所有文本转换为一种或另一种,这样机器学习模型就可以在两者上进行测试,以比较性能。我使用“cyrtranslit”库执行此任务。它支持大多数西里尔字母,如马其顿语、保加利亚语、乌克兰语等。​
import cyrtranslit​ latin = []​ cyrillic = []​ for comm in df['comment'].to_numpy():​ latin.append(cyrtranslit.to_latin(comm, mk))​ cyrillic.append(cyrtranslit.to_cyrillic(comm, mk))​ df['comment_cyrillic'] = cyrillic​ df['comment_latin'] = latin​ df.head()​
图1:转换输出的结果​
对于我使用的嵌入模型,通常不需要删除标点符号、停止单词和进行其他文本清理。这些模型被设计用于处理自然语言文本,包括标点符号,并且当句子保持完整时,通常能够更准确地捕捉句子的意思。这样,文本的预处理就完成了。​
矢量嵌入​目前,没有大规模的马其顿语言描述模型可用。然而,我们可以使用基于马其顿语文本训练的多语言模型。当前,有几种这样的模型可用,但对于这项任务,我发现laser和多语言通用句子编码器是最合适的选择。​
laser​laser(language-agnostic sentence representations)是一种生成高质量多语言句子嵌入的语言不可知方法。laser模型基于两阶段过程。其中,第一阶段是对文本进行预处理,包括标记化、小写和应用句子。这部分是特定于语言的;第二阶段涉及使用多层双向lstm将预处理的输入文本映射到固定长度的嵌入。​
在一系列基准数据集上,laser已经被证明优于其他流行的句子嵌入方法,如fasttext和infersent。此外,laser模型是开源的,免费提供,使每个人都可以轻松访问。​
使用laser创建嵌入是一个简单的过程:​
!pip install laserembeddings​ !python -m laserembeddings download-models​ from laserembeddings import laser​ #创建嵌入​ laser = laser()​ embeddings_c = laser.embed_sentences(df['comment_cyrillic'].to_numpy(),lang='mk')​ embeddings_l = laser.embed_sentences(df['comment_latin'].to_numpy(),lang='mk')​ # 保存嵌入​ np.save('/content/laser_multi_c.npy', embeddings_c)​ np.save('/content/laser_multi_l.npy', embeddings_l)​
多语言通用句子编码器​多语言通用句子编码器(muse)是由facebook开发的用于生成句子嵌入的预训练模型。muse旨在将多种语言的句子编码到一个公共空间中。​
该模型基于深度神经网络,该网络使用“编码器-解码器”架构来学习句子与其在高维空间中的对应嵌入向量之间的映射。muse是在一个大规模的多语言语料库上训练的,其中包括维基百科的文本、新闻文章和网页。​
!pip install tensorflow_text​ import tensorflow as tf​ import tensorflow_hub as hub​ import numpy as np​ import tensorflow_text​ #加载muse模型​ module_url = https://tfhub.dev/google/universal-sentence-encoder-multilingual-large/3​ embed = hub.load(module_url)​ sentences = df['comment_cyrillic'].to_numpy()​ muse_c = embed(sentences)​ muse_c = np.array(muse_c)​ sentences = df['comment_latin'].to_numpy()​ muse_l = embed(sentences)​ muse_l = np.array(muse_l)​ np.save('/content/muse_c.npy', muse_c)​ np.save('/content/muse_l.npy', muse_l)​
openai ada v2​2022年底,openai宣布了他们全新的最先进嵌入模型text-embedding-ada-002(https://openai.com/blog/new-and-improved-embedding-model/)。由于此模型基于gpt-3构建,因此具有多语言处理能力。为了比较西里尔文和拉丁语评论的结果,我决定在两个数据集上运行了模型:​
!pip install openai​ import openai​ openai.api_key = 'your_key_here'​ embeds_c = openai.embedding.create(input = df['comment_cyrillic'].to_numpy().tolist(), model='text-embedding-ada-002')['data']​ embeds_l = openai.embedding.create(input = df['comment_latin'].to_numpy().tolist(), model='text-embedding-ada-002')['data']​ full_arr_c = []​ for e in embeds_c:​ full_arr_c.append(e['embedding'])​ full_arr_c = np.array(full_arr_c)​ full_arr_l = []​ for e in embeds_l:​ full_arr_l.append(e['embedding'])​ full_arr_l = np.array(full_arr_l)​ np.save('/content/openai_ada_c.npy', full_arr_c)​ np.save('/content/openai_ada_l.npy', full_arr_l)​
机器学习模型​本节将探讨用于预测马其顿餐厅评论中情绪的各种机器学习模型。从传统的机器学习模型到深度学习技术,我们将研究每个模型的优缺点,并比较它们在数据集上的性能。​
在运行任何模型之前,应该先对数据进行分割,以便针对每种嵌入类型进行训练和测试。这可以通过sklearn库轻松完成。​
from sklearn.model_selection import train_test_split​ x_train, x_test, y_train, y_test = train_test_split(embeddings_c, df['sentiment'], test_size=0.2, random_state=42)​
随机森林​
图2:随机森林分类的简化表示。构建100个决策树,并将结果作为每个决策树的结果之间的多数表决进行计算​
随机森林是一种广泛使用的机器学习算法,它使用决策树集合对数据点进行分类。该算法通过在完整数据集的子集和特征的随机子集上训练每个决策树来工作。在推理过程中,每个决策树都会生成一个情绪预测,最终的结果是通过对所有树进行多数投票获得的。这种方法有助于防止过度拟合,并可导致更稳健和准确的预测结果。​
from sklearn.ensemble import randomforestclassifier​ from sklearn.metrics import classification_report, confusion_matrix​ rfc = randomforestclassifier(n_estimators=100)​ rfc.fit(x_train, y_train)​ print(classification_report(y_test,rfc.predict(x_test)))​ print(confusion_matrix(y_test,rfc.predict(x_test)))​
xgboost​
图3:基于boosting算法的顺序过程。每个下一个决策树都基于上一个决策的残差(误差)进行训练​
xgboost(极限梯度增强)是一种强大的集成方法,主要用于表格数据。与随机森林算法模型一样,xgboost也使用决策树对数据点进行分类,但方法不同。xgboost不是一次训练所有树,而是以顺序的方式训练每棵树,从上一棵树所犯的错误中学习。这个过程被称为“增强”,这意味着将弱模型结合起来,形成一个更强的模型。虽然xgboost主要使用表格数据产生了很好的结果,但使用向量嵌入测试该模型也会很有趣。​
from xgboost import xgbclassifier​ from sklearn.metrics import classification_report, confusion_matrix​ rfc = xgbclassifier(max_depth=15)​ rfc.fit(x_train, y_train)​ print(classification_report(y_test,rfc.predict(x_test)))​ print(confusion_matrix(y_test,rfc.predict(x_test)))​
支持向量机​
图4:支持向量分类的简化表示。在具有1024个输入特征的这种情绪分析的情况下,超平面将是1023维​
支持向量机(svm)是一种用于分类和回归任务的流行且强大的机器学习算法。它的工作原理是找到将数据分成不同类的最佳超平面,同时最大化类之间的边界。svm对高维数据特别有用,可以使用核函数处理非线性边界。​
from sklearn.svm import svc​ from sklearn.metrics import classification_report, confusion_matrix​ rfc = svc()​ rfc.fit(x_train, y_train)​ print(classification_report(y_test,rfc.predict(x_test)))​ print(confusion_matrix(y_test,rfc.predict(x_test)))​
深度学习​
图5:此问题中使用的神经网络的简化表示​
深度学习是一种先进的机器学习方法,它利用由多层和神经元组成的人工神经网络。深度学习网络在文本和图像数据方面表现出色。使用keras库实现这些网络是一个很简单的过程。​
import tensorflow as tf​ from tensorflow import keras​ from sklearn.model_selection import train_test_split​ from sklearn.metrics import classification_report, confusion_matrix​ model = keras.sequential()​ model.add(keras.layers.dense(256, activatinotallow='relu', input_shape=(1024,)))​ model.add(keras.layers.dropout(0.2))​ model.add(keras.layers.dense(128, activatinotallow='relu'))​ model.add(keras.layers.dense(1, activatinotallow='sigmoid'))​ model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])​ history = model.fit(x_train, y_train, epochs=11, validation_data=(x_test, y_test))​ test_loss, test_acc = model.evaluate(x_test, y_test)​ print('test accuracy:', test_acc)​ y_pred = model.predict(x_test)​ print(classification_report(y_test,y_pred.round()))​ print(confusion_matrix(y_test,y_pred.round()))​
在此,使用了具有两个隐藏层和校正线性单元(relu)激活函数的神经网络。输出层包含一个具有s形激活函数的神经元,使网络能够对积极或消极情绪进行二元预测。二元交叉熵损失函数与s形激活配对以训练模型。此外,dropout被用于帮助防止过度拟合和改进模型的泛化。我用各种不同的超参数进行了测试,发现这种配置最适合这个问题。​
通过以下函数,我们可以可视化模型的训练。​
import matplotlib.pyplot as plt​ def plot_accuracy(history):​ plt.plot(history.history['accuracy'])​ plt.plot(history.history['val_accuracy'])​ plt.title('model accuracy')​ plt.xlabel('epoch')​ plt.ylabel('accuracy')​ plt.legend(['train', 'validation'], loc='upper left')​ plt.show()​
图6:示例训练输出​
transformers​
图7:bert大型语言模型的预训练和微调过程。(bert原始论文地址:https://arxiv.org/pdf/1810.04805v2.pdf)​
微调transformers是自然语言处理中的一种流行技术,涉及调整预先训练的变换器模型以适应特定任务。transformers,如bert、gpt-2和roberta,在大量文本数据上进行了预训练,能够学习语言中的复杂模式和关系。然而,为了在特定任务(如情绪分析或文本分类)上表现良好,需要根据任务特定数据对这些模型进行微调。​
对于这些类型的模型,不需要我们之前创建的向量表示,因为它们直接处理标记(直接从文本中提取)。在马其顿语的情绪分析任务中,我使用了bert-base-multilingual-uncased,这是bert模型的多语言版本。​
​​huggingface​​使微调transformers成为一项非常简单的任务。首先,需要将数据加载到transformers数据集中。然后将文本标记化,最后训练模型。
from sklearn.model_selection import train_test_split​ from datasets import load_dataset​ from transformers import trainingarguments, trainer​ from sklearn.metrics import classification_report, confusion_matrix​ # 创建由数据集加载的训练和测试集的csv文件​ df.rename(columns={sentiment: label}, inplace=true)​ train, test = train_test_split(df, test_size=0.2)​ pd.dataframe(train).to_csv('train.csv',index=false)​ pd.dataframe(test).to_csv('test.csv',index=false)​ #加载数据集​ dataset = load_dataset(csv, data_files={train: train.csv, test: test.csv})​ # 标记文本​ tokenizer = autotokenizer.from_pretrained('bert-base-multilingual-uncased')​ encoded_dataset = dataset.map(lambda t: tokenizer(t['comment_cyrillic'], truncatinotallow=true), batched=true,load_from_cache_file=false)​ # 加载预训练的模型​ model = automodelforsequenceclassification.from_pretrained('bert-base-multilingual-uncased',num_labels =2)​ #微调模型​ arg = trainingarguments(​ mbert-sentiment-mk,​ learning_rate=5e-5,​ num_train_epochs=5,​ per_device_eval_batch_size=8,​ per_device_train_batch_size=8,​ seed=42,​ push_to_hub=true​ )​ trainer = trainer(​ model=model,​ args=arg,​ tokenizer=tokenizer,​ train_dataset=encoded_dataset['train'],​ eval_dataset=encoded_dataset['test']​ )​ trainer.train()​ # 取得预测结果​ predictions = trainer.predict(encoded_dataset[test])​ preds = np.argmax(predictions.predictions, axis=-1)​ # 评估​ print(classification_report(predictions.label_ids,preds))​ print(confusion_matrix(predictions.label_ids,preds))​
因此,我们成功地调整了bert进行情绪分析。​
实验结果与讨论​
图8:所有模型的结果大对比​
实验证明,马其顿餐厅评论的情绪分析结果是很有希望的,从上图中可见,其中有几个模型获得了很高的准确性和f1分数。实验表明,深度学习模型和变换器的性能优于传统的机器学习模型,如随机森林和支持向量机,尽管相差不大。使用新openai嵌入的transformers和深度神经网络成功打破了0.9精度的障碍。​
openai嵌入模型textembedding-ada-002成功地极大提高了从经典ml模型获得的结果,尤其是在支持向量机上。本研究中的最佳结果是在深度学习模型上嵌入西里尔文文本。​
一般来说,拉丁语文本的表现比西里尔语文本差。尽管我最初假设这些模型的性能会更好,但考虑到拉丁语中类似单词在其他斯拉夫语言中的流行,以及嵌入模型是基于这些数据训练的事实,这些发现并不支持这一假设。​
未来的工作​在未来的工作中,收集更多的数据以进一步训练和测试模型是非常有价值的,尤其是在审查主题和来源更为多样化的情况下。此外,尝试将元数据(例如审阅者的年龄、性别、位置)或时间信息(例如审阅时间)等更多特征纳入模型可能会提高其准确性。最后,将分析扩展到其他不太常用的语言,并将模型的性能与马其顿评论中训练的模型进行比较,这也将是很有意思的。​
结论​这篇文章展示了各种流行机器学习模型和嵌入技术对马其顿餐厅评论情感分析的有效性。探索并比较了几种经典的机器学习模型,如随机森林和svm,以及包括神经网络和transformers在内的现代深度学习技术。结果表明,采用最新openai嵌入的微调transformers模型和深度学习模型优于其他方法,验证准确率高达90%。​
译者介绍​朱先忠,51cto社区编辑,51cto专家博客、讲师,潍坊一所高校计算机教师,自由编程界老兵一枚。​
原文标题:​​from decision trees to transformers: comparing sentiment analysis models for macedonian restaurant reviews​​,作者:danilo najkov
以上就是从决策树到transformer——餐厅评论情感分析模型比较的详细内容。
其它类似信息

推荐信息