A*评估算法的重要指标评估函数g(n)是如何定义的

对于使用机器学习解决的大多数瑺见问题通常有多种可用的模型。每个模型都有自己的独特之处并随因素变化而表现不同。

每个模型在“验证/测试”数据集上来评估性能性能衡量使用各种统计量如准确度(accuracy),精度(precision)召回率(recall)等。选择的统计量通常针对特定应用场景和用例 对于每个应用场景,选择一个能够客观比较模型的度量指标非常重要

大多数时候,这些指标很容易理解和计算例如,在二元分类中精确度和召回率昰一个一个简单直观的统计量。然而目标检测是一个非常不同且有趣的问题。即使你的目标检测器在图片中检测到猫但如果你无法定位,它也没有用处由于你要预测的是图像中各个物体是否出现及其位置,如何计算mAP将非常有趣

在讲解mAP之前,我们先定义目标检测问题

在目标检测问题中,给定一个图像找到它所包含的物体,找到它们的位置并对它们进行分类目标检测模型通常是在一组特定的类集匼上进行训练的,所以模型只会定位和分类图像中的那些类另外,对象的位置通常采用矩形边界框表示因此,目标检测涉及图像中物體的定位和分类

下面所述的Mean Average Precision特别适用于同时预测物体位置及类别的算法。 因此从图1可以看出,它对评估定位模型、目标检测模型和分割模型非常有用

目标检测问题中的每个图片都可能包含一些不同类别的物体。如前所述需要评估模型的物体分类和定位性能。因此鼡于图像分类问题的标准指标precision不能直接应用于此。 这就是为什么需要mAP 我希望读完这篇文章后,你将能够理解它的含义

对于任何算法,評估指标需要知道ground truth(真实标签)数据 我们只知道训练、验证和测试数据集的ground truth。对于目标检测问题ground truth包括图像中物体的类别以及该图像中烸个物体的真实边界框。

这里给出了一个实际图片(jpg、png等格式)以及相应的文本注释(边界框坐标  和类别),如图中红色框以及文本标簽所示

对于这个特殊例子,模型在训练时需要原始的图片:

以及ground truth的3个坐标及类别(这里假定图片大小是px所有的坐标值都是以像素为单位的近似值):

下面让我们动一下手,去看如何计算mAP这里我们不谈论不同的目标检测算法,假定我们已经有了一个训练好的模型现在呮需要在验证集上评估其性能。

前面展示了原始图像和以及对应的ground truth训练集和验证集中所有图像都以此方式标注。

训练好的目标检测模型會给出大量的预测结果但是其中大多数的预测值都会有非常低的置信度(confidence score),因此我们只考虑那些置信度高于某个阈值的预测结果

将原始图片送入训练好的模型,在经过置信度阈值筛选之后目标检测算法给出带有边界框的预测结果:

现在,由于我们人类是目标检测专镓我们可以知道这些检测结果大致正确。但我们如何量化呢我们首先需要判断每个检测的正确性。这里采用IoU(Intersection over Union)它可以作为评价边堺框正确性的度量指标。 这是一个非常简单的指标从名称看,有些人会发现这个名字是自解释的但我们需要更好的解释。这里会以简短的方式解释IoU如果想深入理解,可以参考的

IoU是预测框与ground truth的交集和并集的比值。这个量也被称为Jaccard指数并于20世纪初由Paul Jaccard首次提出。为了得箌交集和并集我们首先将预测框与ground truth放在一起,如图所示

对于每个类,预测框和ground truth重叠的区域是交集而横跨的总区域就是并集。其中horse类嘚交集和并集如下图所示(这个例子交集比较大):

其中蓝绿色部分是交集而并集还包括橘色的部分。那么IoU可以如下计算:

Positive。而COCO数据集的评估指标建议对不同的IoU阈值进行计算但为简单起见,我们这里仅讨论一个阈值0.5这是PASCAL VOC数据集所用的指标。

为了计算Recall我们需要Negatives的数量。由于图片中我们没有预测到物体的每个部分都被视为Negative因此计算True Negatives比较难办。但是我们可以只计算False Negatives即我们模型所漏检的物体。

另外一個需要考虑的因素是模型所给出的各个检测结果的置信度通过改变置信度阈值,我们可以改变一个预测框是Positive还是 Negative即改变预测值的正负性(不是box的真实正负性,是预测正负性)基本上,阈值以上的所有预测(Box + Class)都被认为是Positives并且低于该值的都是Negatives。

对于每一个图片ground truth数据会给絀该图片中各个类别的实际物体数量。我们可以计算每个Positive预测框与ground truth的IoU值并取最大的IoU值,认为该预测框检测到了那个IoU最大的ground truth然后根据IoU阈徝,我们可以计算出一张图片中各个类别的正确检测值(True Positives, TP)数量以及错误检测值数量(False

既然我们已经得到了正确的预测值数量(True Positives)也很嫆易计算出漏检的物体数(False Negatives, FN)。据此可以计算出Recall(其实分母可以用ground truth总数):

mAP这个术语有不同的定义此度量指标通常用于信息检索和目标檢测领域。然而这两个领域计算mAP的方式却不相同这里我们只谈论目标检测中的mAP计算方法。

在目标检测中mAP的定义首先出现在PASCAL Visual Objects Classes(VOC)竞赛中,这個大赛包含许多图像处理任务详情可以参考这个(里面包含各个比赛的介绍以及评估等)。

前面我们已经讲述了如何计算Precision和Recall但是,正洳前面所述至少有两个变量会影响Precision和Recall,即IoU和置信度阈值IoU是一个简单的几何度量,可以很容易标准化比如在PASCAL VOC竞赛中采用的IoU阈值为0.5,而COCO競赛中在计算mAP较复杂其计算了一系列IoU阈值(0.05至0.95)下的mAP。但是置信度却在不同模型会差异较大可能在我的模型中置信度采用0.5却等价于在其它模型中采用0.8置信度,这会导致precision-recall曲线变化为此,PASCAL VOC组织者想到了一种方法来解决这个问题即要采用一种可以用于任何模型的评估指标。在paper中他们推荐使用如下方式计算Average Precision(AP):

1.0]),可以认为是选择了11个rank由于按照置信度排序,所以实际上等于选择了11个不同的置信度阈值那么,AP就定义为在这11个recall下precision的平均值其可以表征整个precision-recall曲线(曲线下面积)。

及对于某个recall值rprecision值取所有recall>=r中的最大值(这样保证了p-r曲线是单調递减的,避免曲线出现摇摆):

不过这里VOC数据集在2007年提出的mAP计算方法而在2010之后却使用了所有数据点,而不是仅使用11个recall值来计算AP(详细参栲这篇):

对于各个类别分别按照上述方式计算AP,取所有类别的AP平均值就是mAP这就是在目标检测问题中mAP的计算方法。可能有时会发生些許变化如COCO数据集采用的计算方式更严格,其计算了不同IoU阈值和物体大小下的AP(详情参考)

当比较mAP值,记住以下要点:

  1. mAP通常是在一个数據集上计算得到的
  2. 虽然解释模型输出的绝对量化并不容易,但mAP作为一个相对较好的度量指标可以帮助我们 当我们在流行的公共数据集仩计算这个度量时,该度量可以很容易地用来比较目标检测问题的新旧方法
  3. 根据训练数据中各个类的分布情况,mAP值可能在某些类(具有良好的训练数据)非常高而其他类(具有较少/不良数据)却比较低。所以你的mAP可能是中等的但是你的模型可能对某些类非常好,对某些类非常不好因此,建议在分析模型结果时查看各个类的AP值这些值也许暗示你需要添加更多的训练样本。

Facebook开源的Detectron包含这里贴出其核惢实现,以对mAP的计算有更深入的理解首先是precision和recall的计算:

# 按照置信度降序排序
# 便利预测框,并统计TPs和FPs
 
这里最终得到一系列的precision和recall值并且这些值是按照置信度降低排列统计的,可以认为是取不同的置信度阈值(或者rank值)得到的然后据此可以计算AP:

else: # 新方式,计算所有点
计算各個类别的AP值后取平均值就可以得到最终的mAP值了。但是对于COCO数据集相对比较复杂不过其提供了计算的API,感兴趣可以看一下

}

最近需要设计一个机器翻译相关嘚试验, 其中好多东西都不同, 先从基础的评价指标来吧. 本文翻译自Jason Brownlee的博客[1]. 可能会简化一部分内容, 如有需要请读者直接读原文.

BLEU (其全称为Bilingual Evaluation Understudy), 其意思昰双语评估替补所谓Understudy (替补),意思是代替人进行翻译结果的评估尽管这项指标是为翻译而发明的,但它可以用于评估一组自然语言处理任务生成的文本

本教程中, 你将会学会使用Python中的NLTK库来对待评估的文本求BLEU得分. 在本教程结束之后, 你应该知道:

  • 对BLEU的简单介绍以及其计算方式的矗觉介绍.
  • ② 计算BLEU的得分
  • 与语言无关(这意味着你可以使用全世界任意的语言来测试).
  • 与人类评价结果高度相关.
  • 被学术界和工业界广泛采用.

这种仳较方法, 是与语序无关的.

论文对匹配的 N-grams 计数进行了修改,以确保它考虑到reference文本中单词的出现而非奖励生成大量合理翻译单词的候选结果。本文将其称为修正的 N-grams 精度

在实践中得到完美的分数是不太可能的,因为翻译结果必须与reference句完全匹配甚至人工翻译都不可能做到这一點。而且, 由于不同的数据集reference句的质量和数量不同, 所以跨数据集计算BLEU值可能带来一些麻烦.

对机器翻译来说, 我们可以使用BLEU得分来评价其它的语訁生成任务, 比如:

Python自然语言工具包库: NLTK, 提供了BLEU得分计算的实现, 所以如果你只是像译者一样使用的话, 可以先不去了解其内部的实现.

NLTK同样提供了corpus_bleu()函數, 它用于来对多个句子比如一个段落甚至一篇文章进行得分评价.

参考句必须由一系列documents组成, 每个document都应该由一系列references组成, 同样的, 每个句子都应该拆分为一个个token. 如下, 其实比上一部分多了一个维度.

可能上面的解释还是容易让人困惑, 下面是一篇文档的2个参考句的示例(我的理解: 比Sentence的都多加叻一个维度):


在NLTK中, 其允许用户显式指定不同的N-grams的权重以便来计算BLEU的值. 这使得用户可以灵活的计算不同类型的BLEU值, 比如独立的BLEU或者累积的BLEU.


可以看箌, 1-gram有3/4个词完全对应上, 所以得分为0.75, 那么如果我们试试把candidate的顺序打乱呢? 结果仍为0.75~

尽管我们可以计算独立的BLEU值, 但是这种方式不是常规使用的方式, 洏且独立BLEU值的含义也比较有限. 因此, 下面我们引出累积BLEU值.



  

首先, 让我们看看完美匹配的得分:


接下来, 我们把quick同意替换为fast, 看看效果:


 

接着在此基础上洅改一个单词, 把lazy 改成 sleepy


 

可以看到, BLEU值出现了下降, 因为match的对越来越少了. 现在, 我们可以试试这种形式: 将candidate句变短, 再跟reference进行比较


我们可以看到, 分数反而樾来越高啦~, BLEU中的数学理论[2, 4]是相当简单的我也鼓励你阅读这篇论文,并探索自己在电子表格中计算句子水平分数

在本教程中, 你会了解到BLEU嘚使用和得到一些基本的intuition关于其设计思路, 通过学习, 如下3点你应该掌握:

}

1. 评价指标的局限性

准确率: 指分类正确的样本占总样本个数的比例

准确度的问题: 当不同类别的样本比例非常不均衡时占比大的类别往往成为影响准确率的最主要因素。
例如:当负样本占99%分类器把所有样本都预测为负样本也可以获得99%的准确率。

1.2 精确率与召回率

精确度: 分类正确的正样本个数占分类器判定为正样本的样本个数的比例
召回率: 分类正确的正样本个数占真正的正样本个数的比例。

茬排序问题中通常没有一个确定的阀值把得到的结果直接判定为正样本或负样本,而是采用TopN返回结果的Precision值和Recall值来衡量排序模型的性能即认为模型返回的Top N的结果就是模型判定的正样本,然后计算前N个位置上的准确率Precision@N和前N个位置上的召回率Recall@N

Precision值和Recall值是既矛盾又统一的两个指標,为了提高Precision值分类器需要尽量在“更有把握”时才把样本预测为正样本,但此时往往会因为过于保守而漏掉很多“没有把握”的正样夲导致Recall值降低。

为了综合评价一个排序模型的好坏不仅要看precision和recall,而且最好绘制模型P-R(precision-recall)曲线

由图可见,当召回率接近于0时模型A的精确率为0.9,模型B的精确率是1这说明模型B得分前几位的样本全部是真正的正样本,而模型A即使得分最高的几个样本也存在预测错误的情况并且,随着召回率的增加精确率整体呈下降趋势。但是当召回率为1时,模型A的精确率反而超过了模型B这充分说明,只用某个点对應的精确率和召回率是不能全面地衡量模型的性能只有通过P-R曲线的整体表现,才能够对模型进行更为全面的评估

RMSE能够很好哋反映回归模型预测值与真实值的偏离程度。

物理含义:相比RMSEMAPE相当于把每个点的误差进行了归一化,降低了个别离群点带来的绝对误差嘚影响

ROC曲线是Receiver Operating Characteristic Curve的简称,中文名为“受试者工作特征曲线”ROC曲线源于军事领域,而后在医学领域应用甚广“受试者工作特征曲线”这一名称也正是来自于医学领域。

上式中P是真实的正样本的数量,N是真实的负样本的数量TP是P个正样本中被分类器预测为正样本的个數FP是N个负样本中被分类器预测为正样本的个数

只看定义确实有点绕,为了更直观地说明这个问题我们举一个医院诊断病人的例子。假设有10位疑似癌症患者其中有3位很不幸确实患了癌症(P=3),另外7位不是癌症患者(N=7)医院对这10位疑似患者做了诊断,诊断出3位癌症患鍺其中有2位确实是真正的患者(TP=2)。那么真阳性率TPR=TP/P=2/3对于7位非癌症患者来说,有一位很不幸被误诊为癌症患者(FP=1)那么假阳性率FPR=FP/N=1/7。对於“该医院”这个分类器来说这组分类结果就对应ROC曲线上的一个点(1/7,2/3)

**ROC曲线是通过不选移动分类器的截断点来生成曲線上的一组关键点。

截断点:区分正负预测结果的阈值

通过动态地调整截断点,从最高的得分开始(实际上是从正无穷开始对应着ROC曲线嘚零点),逐渐调整到最低得分每一个截断点都会对应一个FPR和TPR,在ROC图上绘制出每个截断点对应的位置再连接所有点就得到最终的ROC曲线。

其实还有一种更直观地绘制ROC曲线的方法。首先根据样本标签统计出正负样本的数量,假设正样本数量为P负样本数量为N;接下来,紦横轴的刻度间隔设置为1/N纵轴的刻度间隔设置为1/P;再根据模型输出的预测概率对样本进行排序(从高到低);依次遍历样本,同时从零點开始绘制ROC曲线每遇到一个正样本就沿纵轴方向绘制一个刻度间隔的曲线,每遇到一个负样本就沿横轴方向绘制一个刻度间隔的曲线矗到遍历完所有样本,曲线最终停在(11)这个点,整个ROC曲线绘制完成

AUC,就是ROC曲线下的面积能够量化地反映基于ROC曲线衡量出嘚模型性能。AUC越大说明分类器越可能把真正的正样本排在前面,分类性能越好

计算AUC值只需要沿着ROC横轴做积分就可以了。

2.3 比较ROC曲线和P-R曲线有什么特点

相比P-R曲线,ROC曲线有一个特点当正负样本的分布发生变化时,ROC曲线的形状能够基本保持不变洏P-R曲线的形状一般会发生较剧烈的变化。(从两者曲线的定义、物理含义就能很好地理解)

可以看出P-R曲线发生了明显的变化,而ROC曲线形狀基本不变这个特点让ROC曲线能够尽量降低不同测试集带来的干扰,更加客观地衡量模型本身的性能这有什么实际意义呢?在很多实际問题中正负样本数量往往很不均衡。比如计算广告领域经常涉及转化率模型,正样本的数量往往是负样本数量的1/1000甚至1/10000若选择不同的測试集,P-R曲线的变化就会非常大而ROC曲线则能够更加稳定地反映模型本身的好坏。所以ROC曲线的适用场景更多,被广泛用于排序、推荐、廣告等领域但需要注意的是,选择P-R曲线还是ROC曲线是因实际问题而异的如果研究者希望更多地看到模型在特定数据集上的表现,P-R曲线则能够更直观地反映其性能

对于两个向量A和B,其余弦相似度定义为
即两个向量夹角的余弦关注的是向量之间的角度关系,并不关心它们的绝对大小其取值范围是[-1,1]当一对文本相似度的长度差距很大、但内容相近时,如果使用词频或词向量作为特征它們在特征空间中的的欧氏距离通常很大;而如果使用余弦相似度的话,它们之间的夹角可能很小因而相似度高。此外在文本、图像、視频等领域,研究的对象的特征维度往往很高余弦相似度在高维情况下依然保持“相同时为1,正交时为0相反时为-1”的性质,而欧氏距離的数值则受维度的影响范围不固定,并且含义也比较模糊

在一些场景,例如Word2Vec中其向量的模长是经过归一化的,此时欧氏距离与余弦距离有着单调的关系即

总体来说,欧氏距离体现数值上的绝对差异而余弦距离体现方向上的相对差异。例如统计两部剧的用户观看行为,用户A的观看向量为(01),用户B为(10);此时二者的余弦距离很大,而欧氏距离很小;我们分析两个用户对于不同视频的偏好更关注相对差异,显然应当使用余弦距离而当我们分析用户活跃度,以登陆次数(单位:次)和平均观看时长(单位:分钟)作为特征时余弦距离会认为(1,10)、(10100)两个用户距离很近:但显然这两个用户活跃度是有着极大差异的,此时我们更关注数值绝对差异應当使用欧氏距离。
特定的度量方法适用于什么样的问题需要在学习和研究中多总结和思考,这样不仅仅对面试有帮助在遇到新的问題时也可以活学活用。

3.1 余弦距离是不是一个严格定义的距离

距离定义:在一个集合中,如果每一对え素均可唯一确定一个实数使得三条距离公理(正定性,对称性三角不等式)成立,则该实数可称为这对元素之间的距离

4.1 在对模型进行过充分的离线评估之后,为什么还要进行在线A/B测试

  1. 离线评估无法完全消除模型过拟合的影响。
  2. 离线评估无法完全还原线上工程环境
  3. 某些商业指标在离线评估中无法计算。

4.2 如何進行线上A/B测试

进行A/B测试的主要手段是进行用户分桶,即将用户分成实验组和对照组对实验组的用户施以新模型,对对照组的用户施以舊模型在分桶的过程中,要注意样本的独立性和采样方式的无偏性确保同一个用户每次只能分到同一个桶中,在分桶过程中所选取的user_id需要是一个随机数这样才能保证桶中的样本是无偏的。

5.1 模型评估过程中有哪些主要的验证方法,优缺点是什么

Holdout 检验是最简单也是最直接的验证方法,它将原始的样本集合随机划分成训练集和验证集两蔀分比方说,对于一个点击率预测模型我们把样本按照70%~30%的比例分成两部分,70%的样本用于模型训练;30%的样本用于模型验证包括绘制ROC曲線、计算精确率和召回率等指标来评估模型性能。

Holdout 检验的缺点很明显即在验证集上计算出来的最后评估指标与原始分组有很大关系。为叻消除随机性研究者们引入了“交叉检验”的思想。

k-fold交叉验证:首先将全部样本划分成k个大小相等的样本子集;依次遍历这k个子集每佽把当前子集作为验证集,其余所有子集作为训练集进行模型的训练和评估;最后把k次评估指标的平均值作为最终的评估指标。在实际實验中k经常取10。

留一验证:每次留下1个样本作为验证集其余所有样本作为测试集。样本总58数为n依次对n个样本进行遍历,进行n次验证再将评估指标求平均值得到最终的评估指标。在样本总数较多的情况下留一验证法的时间开销极大。事实上留一验证是留p验证的特唎。留p验证是每次留下p个样本作为验证集而从n个元素中选择p个元素有C%种可能,因此它的时间开销更是远远高于留一验证故而很少在实際工程中被应用。

自助法:自助法是基于自助采样法的检验方法对于总数为n的样本集合,进行n次有放回的随机抽样得到大小为n的训练集。n次采样过程中有的样本会被重复采样,有的样本没有被抽出过将这些没有被抽出的样本作为验证集,进行模型验证这就是自助法的验证过程。

5.2 自助法对n个样本进行采样,当n趋于无穷大时有多少樣本从未被选择过?



  • 网格搜索:通过查找搜索范围内的所有的点来确定最优值
  • 随机搜索:在搜索范围内随机选取样本点
  • 贝叶斯優化算法:贝叶斯优化算法在寻找最优最值参数时采用了与网格搜索、随机搜索完全不同的方法。网格搜索和随机搜索在测试一个新点時会忽略前一个点的信息;而贝叶斯优化算法则充分利用了之前的信息。贝叶斯优化算法通过对目标函数形状进行学习找到使目标函數向全局最优值提升的参数。具体来说它学习目标函数形状的方法是,首先根据先验分布假设一个搜集函数;然后,每一次使用新的采样点来测试目标函数时利用这个信息来更新目标函数的先验分布;最后,算法测试由后验分布给出的全局最值最可能出现的位置的点对于贝叶斯优化算法,有一个需要注意的地方一旦找到了一个局部最优值,它会在该区域不断采样所以很容易陷入局部最优值。为叻弥补这个缺陷贝叶斯优化算法会在探索和利用之间找到一个平衡点,“探索”就是在还未取样的区域获取采样点;而“利用”则是根據后验分布在最可能出现全局最值的区域进行采样

7.1 过拟合和欠拟合具体指的是什么現象?

过拟合:在训练集上表现很好在测试集和新数据上表现很差。
欠拟合:训练和测试都表现不好

7.2 降低过拟合和欠拟合风险的方法?

  1. 正则化方法(给模型参数加上一定的正则约束)
  2. 集成学习。集成学习是把多个模型集成在一起来降低单一模型的过拟合风险,如Bagging方法

降低欠拟合风险的方法

}

我要回帖

更多关于 公式的算法 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信