文本分类中特征选择算法的分析与研究
【摘要】:
自动文本分类是对大量的半结构化、无结构化的未知类别文本(文本文档、网页等)按照给定的分类体系,根据文本内容划分到指定的类别中的过程。由于文本数据的半结构化、无结构化的特点,当文本使用特征向量表示的时候,特征向量通常会达到几万维甚至于几十万维,给文本分类带来了很不利的影响。如果直接在这样一个高维特征空间上进行分类器的训练和分类,会带来两个问题:一是很多低维空间具有良好性能的统计分类器在计算上变得低效不可行;二是训练样本(训练文本集的个数)一定的前提下,过多的特征使得样本统计的估计变得非常困难,从而降低统计分类器的推广能力和泛化能力,呈现所谓的"过学习"或"过训练"的现象。因此寻求一种有效的维数约简方法,降低特征空间的维数,提高分类的效率和精度,成为文本自动分类中至关重要的问题。
维数约简是将高维空间映射到一个小得多的低维空间,同时希望该低维空间一方面能尽可能多的保留原始数据中的重要信息,另一方面又能有效地把原始信息中的噪音、冗余数据过滤掉。维数约简技术分为两类,分别是特征选择、特征重构。特征选择是依据某个准则在原始特征集合中挑选出有利于学习算法的特征,去掉那些冗余的、与类别不相关的特征。特征重构是由原始特征集合创建新的特征集合,使得新创建的特征集合远远小于原始的特征集合。由于特征选择具有速度快,适合处理于大规模数据集的特点,因此本文主要在特征选择方面开展了一些工作,提出了两种特征选择算法:基于互信息的相关性特征选择方法和基于关联分析的特征选择方法。
基于互信息的相关性特征选择方法不仅计算了特征与类别的相关度,也考虑了特征之间的相关度。文中采用了改进后的互信息来最为相关性的量化指标来衡量特征与特征、特征与类别间的相关性,从而在最大程度保留原始空间信息的目的下,尽可能地剔除掉不相关的、冗余的特征。在试验中将文本分类中常用的特征选择方法IG、CHI作为参照的基准,从实验结果中可以看到我们提出的算法是很有效的一种特征选择方法。
基于关联分析的特征选择方法主要考虑了特征之间存在的关联关系,传统的特征选择算法则没有考虑这样的联系。算法首先对特征词之间的关联关系进行挖掘,找出那些对类别有重要影响的特征词组,这些特征词组中的每个单词在传统单独打分策略的特征选择算法中很可能会因分值过低而被丢弃;然后根据这样的关联词组对已打分排序的特征集合重新排序,使得对分类具有重要影响的特征不会因低估而被丢弃。在Ruters21578、20Newsgroup文本数据集上的实验结果表明该方法是一种有特点、有效的特征选择方法。