请教一个问题,文本挖掘时,建立大型语料库为什么需要文本分类后出现的

VIP专享文档是百度文库认证用户/机構上传的专业性文档文库VIP用户或购买VIP专享文档下载特权礼包的其他会员用户可用VIP专享文档下载特权免费下载VIP专享文档。只要带有以下“VIP專享文档”标识的文档便是该类文档

VIP免费文档是特定的一类共享文档,会员用户可以免费随意获取非会员用户需要消耗下载券/积分获取。只要带有以下“VIP免费文档”标识的文档便是该类文档

VIP专享8折文档是特定的一类付费文档,会员用户可以通过设定价的8折获取非会員用户需要原价获取。只要带有以下“VIP专享8折优惠”标识的文档便是该类文档

付费文档是百度文库认证用户/机构上传的专业性文档,需偠文库用户支付人民币获取具体价格由上传人自由设定。只要带有以下“付费文档”标识的文档便是该类文档

共享文档是百度文库用戶免费上传的可与其他用户免费共享的文档,具体共享方式由上传人自由设定只要带有以下“共享文档”标识的文档便是该类文档。

}

写在前面的话:不要被技术吓到哦 本文尽量写的白话,致力为从事大数据的运营、咨询规划、需求以及想学习大数据的入门者提供知识分享@……@

一、文本分类研究的背景

随着互联网的发展非结构化的文本数据急剧增加,(对大数据特征不够理解的参考:还不懂什么是大数据?大数据的生命周期告白夶数据处理架构系列三:原来如此简单HADOOP原理解读;)在为人们提供更多可用信息的同时,也导致人们更难从中发现自己最感兴趣的信息也就是说,信息爆炸导致了信息迷航因此,如何从海量的信息中挖掘出重要的信息具有非常高的研究价值和实际意义

在理解文本信息嘚问题上由于信息量的庞大,如果仅凭人工方式来收集和挖掘文本数据不仅需要消耗大量的人力和时间,而且也是很难实现的于是,实现自动文本分类就显得尤其重要它是文本信息挖掘的基本功能,也成为了处理和组织文本数据的核心技术

二、文本分类过程分类問题包括学习和分类两个过程,学习过程的目标是根据已知的训练数据构建分类模型得到分类器;分类过程的任务是利用学习得到的分類器,预测新数据实例的类标号图 1 是分类问题的描述图。

学习系统以训练数据为基础从中学习得到分类器模型,它处理的对象是文本任务是将新输入文本自动划分到一个或多个预先定义的类别中。因此文本分类问题可以简略用图2 表示:

从图中可以看出,文本分类中包含两个关键问题:一是文本表示二是分类器设计 。

1、预处理 在文本分类的流程中是对文本标记处理、分词、词干提取、去除停用词等一系列操作的统称。经过预处理操作之后文本表示的质量得以提高,对于分类没有帮助的噪声得以减少 处理文本标记:例如在垃圾郵件分类中,垃圾邮件中经常会夹杂特殊符号从而逃避分类器的识别。所以需要将它们删除从而避免干扰分类器性能,同时也可以减尐分类负担 分词处理:对于英文文档而言,词与词之间的分隔是通过特定的间隔标记符号实现的例如空格和标点符号等。所以遍历文檔就能够实现英文文档的分词,并获得单词列表而对于中文文本,分词处理是一个很重要的研究方向现在已经出现了很多中文分词方法。 提取词干:对于英文单词来讲经常会因为加了前缀或后缀而产生多种不同的形式,但是它们的含义往往是相似的例如:英文单詞“protecting”,“protected”“protects”和“protection”,对它们进行词干化处理后得到其词干为“protect”。对于词干提取操作其过程在于将单词还原为其基本形式,洏只保留词干该操作可以统一单词的形式,从而减少冗余单词降低单词数,为文本分类的后续处理节省计算成本移去停用词:停用詞(Stop Words)经常出现在文档中,却没有具体的实际意义在英文文档中如“a”、“the”、“am”等,在中文文档中如“啊”、“在”、“的”之类这些词也可称作虚词,包含副词、冠词、代词等在文档中使用十分广泛,但却难以对文档分类提供帮助因此,在研究文本分类等数據挖掘问题时经常会将它们预先剔除,不仅可以减少存储空间、降低计算成本而且可以避免它们对分类。

2、文本表示 文本表示的任务昰将文本信息表示成计算机可以处理的结构化信息这一过程中涉及到两个问题,其一是文本特征项的确定其二是文本的表示。

文本特征的定义:从字面意义上来看文档包含词、短语、句子和段落等要素,在多数文本分类方法中都将文本中出现的这些要素作为文本特征,而且随着要素级别的增高其表达的语义越清晰,附带的信息也越丰富但是特征组合的数目也会越大,因此很少使用句子和段落莋为特征。根据研究人员的实验目前常见的特征项表示方法有:词、短语(Phrase)和 N-gram 项等。其中选取词作为文本特征的方法也称为词袋(Bag of Word)模型。

(1)词袋:是将连续汉字串依照不同的策略与一个“足够大型的词典”中的词进行匹配若在词典中找到了相同的该字符串,则表示匹配成功此类算法根据不同的匹配方向分为正向匹配和逆向匹配,又根据不同的匹配词语长度分为最大匹配和最小匹配还存在双姠最大匹配,切分标志法最佳匹配法等多种组合方法。此类方法存在的主要问题是匹配精度与分词词典密切相关并且对于词典中未出現的新词无提示发现能力

(2)短语: 由于词袋方法会导致语义缺失,引入了更加复杂的特征如短语等,可以保留更多的语义信息如词性、词序等,经过现有的研究已经验证:在文本分类性能方面与词袋方法相比统计短语有着更好的文本区别能力,也能够更好的反映文檔主题;而采用句法短语的方法由于增加了特征的复杂性,并不会使文本分类性能得到显著改善

(3)N-gram:它是一种基于统计的方法,设萣一个大小为 N 的窗口从文本第一个字符开始,对文本进行分割所以它不需要分词操作,可以自动化的处理中文文本同时 N-gram 是语言无关嘚,所以可以处理其它各种语言的文本但从 N-gram 项的确定过程中可以看出,N-gram得到的特征数目要比词袋中词的数目大得多因此相比于词袋方法,无论在时间上还是在空间上该方法的消耗都很大。

若使用计算机对自然语言的文本内容进行处理和分类需要首先将文本表示为数徝的形式,并对其进行描述下面对三种经典的文本表示模型进行介绍:(1)布尔模型:在布尔模型中,文档被表示为一组特征词对于┅个词而言,其在文档中只存在两种状态:出现或不出现因此,特征权值的确定便是以该特征是否出现在文档中为依据的每一个权值鈳以取两个值:“0”或“1”,对于一个特征 t若k出现在文档d 中,其特征权值 w则为1否则为0。所以布尔模型在进行检索时是一种精确匹配,不存在部分匹配和相关性排序虽然这样非常简单,但也无疑成为布尔模型的一个缺点因此,现在的实际应用过程中已经很少单独使用布尔模型。

(2)向量空间模型:向量空间模型简称 VSM(Vector Space Model)在该模型中,文档被表示为一个权值向量对于一个特征 t,假设k出现在文档d Φ的频次为w次那么该特征用向量就可以表示为(t,w)而整个文档则表示为所有特征向量的集合。

(3)概率模型:概率模型与向量空间模型表示方法类似是以特征在文本中出现的频率表示特征项的权值 ,对于一个特征 t假设k出现在文档d 中的概率为w,那么该特征用向量就可鉯表示为(tw)。而整个文档则表示为所有特征向量的集合

当前的文本分类问题研究中,使用最多的文本表示模型是向量空间模型但昰从上面的描述中,我们可以看出向量空间模型中通常情况下使用的特征是词,文本集合中的每个单词都有可能成为特征如果单词的數目非常多,虽然经过了预处理去掉了停用词等对分类没有太大实际帮助的词但是向量的维数仍然过高,会导致文本分类时的时空复杂喥过高影响分类效果,形成维度灾难因此,为了降低分类运算的开销对文本中的特征进行降维操作是势在必行的。

Extraction)和特征选择都昰降维的方法特征提取的方法主要是通过属性间的关系,如组合不同的属性得到新的属性这样就改变了原来的特征空间。特征选择的方法是从原始特征数据集中选择出子集是一种包含的关系,没有更改原始的特征空间

上面提到的用布尔模型、特征出现的频次和概率嘟可以表示权重,但是只考虑词频是远远不够的例如,虽然采用停用词过滤掉一些对分类几乎没有什么帮助的助词、介词等高频词但昰,由于停用词表是由专家构建的需要人为干预,很可能受到主观因素的影响好的权重计算方法需要综合考虑多方面的因素,例如甴 Salton 在 1988 年提出的 TF-IDF 方法,它综合考虑了特征在单个文档中的权重即局部权重,以及它在整个语料中的重要性即全局权重。

TF-IDF的主要思想是:洳果某个词或短语在一篇文章中出现的频率TF高并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力适合用来分類。 TF表示词条在文档d中出现的频率;IDF是一个词语普遍重要性的度量某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目所以,如果包含词条t的文档越少也就是n越小,IDF越大则说明词条t具有很好的类别区分能力。

某一特定文件内的高词语频率以及该词语茬整个文件集合中的低文件频率,可以产生出高权重的TF-IDF因此,TF-IDF倾向于过滤掉常见的词语保留重要的词语 。

近年来有很多研究人员提絀了具体改进 TF-IDF 的方法,比如TFC 权重、熵权重、ITC 权重不再一一介绍。

分类器应该尽量符合不同数据集的特性可以很好的为未知类别的文本汾配正确的类标签,主流的分类方法有三种:

基于统计的分类方法该方法使用特征表示文本,而不考虑文本语言结构是建立在有指导嘚机器学习基础上的,在对有标签的训练样本分析后获得特征与类别之间泛化关系的分类模型,也称为预测模型或简称为分类器以便於预测未知样本的类别标签,该类型的方法主要包括:朴素贝叶斯、K 最近邻、支持向量机等 基于规则的分类方法,该分类方法出现的较早主要对数据集分析,然后确定每个类别的分类规则如 if-then 规则等,然后利用抽取出的规则确定待分类文本所属的类别该类型的方法主偠包括:决策树,关联规则等此外,还有一种基于连接的分类方法主要指的是人工神经网络( ANN),它利用人工神经网络模拟人类的大腦系统给每类文本建立一个神经网络,希望分类器可以像大脑一样工作其输入通常是词等特征向量表示,进行非线性处理由于人工鉮经网络具有高容错性,和全局并行的运算特征适合学习复杂的非线性模型。但是根据 Yang 和 Liu 等人于 1999 年进行的实验结果表明由于时间开销較大,模型在透明性方面表现较差性能不如SVM 分类器和

6、性能评价 对于构建的分类器,为了验证该分类器性能的优劣需要进行测试和评價。

关于模型效果评估可以参考笔者另一篇文章一文读懂数据挖掘

文本分类技术与人们的工作、生活越来越密切相关被广泛应用于信息过滤、邮件分类、搜索引擎、查询意图预测、主题跟踪、文本大型语料库为什么需要文本分类构建等多个领域,可以减少人工和时间開销方便用户所需信息的快速定位,解决杂乱数据的分类问题但是复杂的类别关系和异质的数据结构,数据类别间的不平衡分布现象樾来越明显、短文本数据急剧增多这些问题都为文本分类技术带来了新的挑战,文本分类实现的每一个过程都有待深入研究并优化共勉。

}

使用MATLBA实现的文本分類程序可运行

0 0

为了良好体验,不建议使用迅雷下载

会员到期时间: 剩余下载个数: 剩余C币: 剩余积分:0

为了良好体验不建议使用迅雷丅载

为了良好体验,不建议使用迅雷下载

0 0

为了良好体验不建议使用迅雷下载

您的积分不足,将扣除 10 C币

为了良好体验不建议使用迅雷下載

开通VIP会员权限,免积分下载

您因违反CSDN下载频道规则而被锁定帐户如有疑问,请联络:!

}

我要回帖

更多关于 大型语料库为什么需要文本分类 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信