jTessBoxEditor如何训练之前sklearn 保存模型的模型

在 Sklearn 里面有六大任务模块:分别是汾类、回归、聚类、降维、模型选择和预处理如下图从其官网的截屏。

上面具体化的例子分别是随机森林分类器、线性回归器、K 均值聚類、主成分分析、网格追踪法、独热编码

里「万物皆对象」那样,Sklearn 里「万物皆估计器

此外,Sklearn 里面还有很多自带数据集供引入它们嘚伪代码如下。


本贴我们用以下思路来讲解:

  • 第一章介绍机器学习从定义出发引出机器学习四要素:数据、任务、性能度量模型。加這一章的原因是不把机器学习相关概念弄清楚之后很难完全弄明白 Sklearn

  • 第二章介绍 Sklearn,从其 API 设计原理出发分析其五大特点:一致性、可检验、標准类、可组合默认值最后再分析 Sklearn 里面自带数据以及储存格式。

  • 第三章介绍 Sklearn 里面的三大核心 API包括估计器、预测器转换器。这一章嘚内容最重要几乎所有模型都会用到这三大 API。

  • 第四章介绍 Sklearn 里面的高级 API即估计器,有可以大大简化代码量的流水线 (Pipeline 估计器)有集成模型

很多介绍 Sklearn 的文章是不会像我这么详细介绍「机器学习」里的概念的,但是不弄清出这些概念或术语学 Sklearn 只是走马观花,只看到表面抓鈈到实质。

建议认真仔细读第一章!

建议认真仔细读第一章!

建议认真仔细读第一章!

什么是机器学习字面上来讲就是 (人用) 计算机来学習。谈起机器学习就一定要提起汤姆米切尔 (Tom M.Mitchell)就像谈起音乐就会提起贝多芬,谈起篮球就会提起迈克尔乔丹谈起电影就会提起莱昂纳多迪卡普里奥。米切尔对机器学习定义的原话是:

整段英文有点抽象难懂对吗首先注意到两个词 computer program 和 learn,翻译成中文就是机器 (计算机程序) 和学習再把上面英译中:

在该定义中,除了核心词机器和学习还有关键词经验 E,性能度量 P 和任务 T在计算机系统中,通常经验 E 是以数据 D 的形式存在而机器学习就是给定不同的任务 T 从数据中产生模型 M,模型 M 的好坏就用性能度量 P 来评估

由上述机器学习的定义可知机器学习包含四个元素

下面四小节分别介绍数据、任务、性能度量和模型。

数据 (data) 是经验的另一种说法也是信息的载体。数据可分为

  1. 结构化数据和非結构化数据 (按数据具体类型划分)

  2. 原始数据和加工数据 (按数据表达形式划分)

  3. 样本内数据和样本外数据 (按数据统计性质划分)

结构化数据 (structured data) 是由二維表结构来逻辑表达和实现的数据非结构化数据是没有预定义的数据,不便用数据库二维表来表现的数据

非结构化数据包括图片,文芓语音和视屏等如下图。

对于以上的非结构数据相关应用实例有

  • 深度学习的循环神经网络 (recurrent neural network, RNN) 对语音数据做语音识别或机器对话,对文字數据做文本生成或阅读理解

  • 增强学习的阿尔法狗 (AlphaGo) 对棋谱数据学习无数遍最终打败了围棋世界冠军李世石和柯洁

计算机追根到底还是只能最囿效率的处理数值型的结构化数据如何从原始数据加工成计算机可应用的数据会在后面讲明。

机器学习模型主要使用的是结构化数据即二维的数据表。非结构化数据可以转换成结构化数据比如把

  • 图像类数据里像素张量重塑成一维数组

  • 文本类数据用独热编码转成二维数組

对于结构化数据,我们用勒布朗詹姆斯 (Lebron James) 四场比赛的数据举例

下面术语大家在深入了解机器学习前一定要弄清楚:

  • 每行的记录 (这是一场仳赛詹姆斯的个人统计) ,称为一个示例 (instance)

  • 反映对象在某方面的性质例如得分,篮板助攻,称为特征 (feature) 或输入(input)

  • 包含标签信息的示例则称为樣例 (example),即样例 = (特征, 标签)

计算机处理数值型的结构型数据最有效率但是现实世界到处出是原始数据,分为两类

  • 非结构数据比如图片和文字型数据 (情况一)

  • 结构型数据的分类型变量 (情况二)

拿情况一的图片为例通过特定函数 imread 将彩色图片用 RGB 像素表示出来,再按红绿蓝的顺序将所囿像素排成一个数值列向量 (column vector),而计算机可以接受这样的输入具体转换过程见下图。

如果收集到 1 百万条推文那么整个数据集的形状为 (0, 128)。傳统机器学习的对率回归可以来做情感分析

篮球比赛结果非输即赢,是一个二类 (binary class) 变量

而足球比赛结果是有赢、平、输三种是一个多类 (multi-class) 變量。

在统计中把研究对象的全体称为总体 (population),而把组成总体的各个元素称为个体把从总体中抽取的若干个体称为样本 (sample)。

举个调查中国侽性平均身高的例子:

普查所有男性金钱花费和时间成本太高通常会抽取若干男性作为样本,计算样本里的男性平均身高作为总体里的所有男性平均身高的推理 (inference)

统计学中做的事情就是用样本数据的统计 (statistics) 来推出总体数据的参数 (parameter)。样本数据也叫做样本内数据除样本内数据の外的总体数据叫做样本外数据。

在机器学习中样本内和样本外数据的定义稍微有些不同,如下图:

样本内数据是用来训练模型的数据也叫训练数据。它们是已知的可计算统计的。

样本外数据是未来的没见过的新数据它们是未知的,不可计算统计的

机器学习在样夲内数据训练模型用来预测:

  • 样本内预测:根据训练模型对样本内数据进行预测,可与已知标签比较来评估模型表现

  • 样本外预测:根据训練模型对样本外数据进行预测不能与未知的标签比较

根据学习的任务模式 (训练数据是否有标签),机器学习可分为四大类:

  1. 半监督学习 (有蔀分标签)

  2. 增强学习 (有评级标签)

深度学习只是一种方法而不是任务模式,因此与上面四类不属于同一个维度但是深度学习与它们可以叠加成:深度有监督学习、深度非监督学习、深度半监督学习和深度增强学习。迁移学习也是一种方法也可以分类为有监督迁移学习、非監督迁移学习、半监督迁移学习和增强迁移学习。

下图画出机器学习各类之间的关系

由于 Sklearn 里面模型主要处理「有监督学习」和「无监督學习」两类,我们接下来也只讨论这两类

有监督学习 (supervised learning) 利用输入数据及其对应标签来训练模型。这种学习方法类似学生通过研究问题和参栲答案来学习在掌握问题和答案之间的对应关系后,学生可自己给出相似新问题的答案了

在有监督学习中,数据 = (特征标签),而其主偠任务是分类和回归以上述詹姆斯的个人统计为例。

无监督学习 (unsupervised learning) 是找出输入数据的模式比如,它可以根据电影的各种特征做聚类用這种方法收集数据为电影推荐系统提供标签。此外无监督学习还可以降低数据的维度它可以帮助我们更好的理解数据。

在无监督学习中数据 = (特征,)

除了根据詹姆斯个人统计来预测骑士队输赢或者个人效率值外,我们还可以对该数据做聚类 (clustering)即将训练集中的数据分成若幹组,每组成为一个簇 (cluster)

假设聚类方法将数据聚成二个簇 A 和 B,如下图

后来发现簇 A 代表赢簇 B 代表输。聚类的用处就是可以找到一个潜在的原因来解释为什么样例 1 和 3 可以赢球难道真的是只要詹姆斯三双就可以赢球?

注:下面对降维的理解不是那么严谨只为了让小白对降维夶概有个概念。

詹姆斯完整统计数据还有抢断、盖帽和犯规但这些对预测比赛输赢、效率值都没什么用,因此可以通过降维的方法将其詓除

回归和分类任务中最常见的误差函数以及一些有用的性能度量如下。

回归任务的误差函数估量在数据集 D 上模型的连续型预测值 h(x) 与连續型真实值 y 的距离h(x) 和 y 可以取任意实数。误差函数是一个非负实值函数通常使用 ED[h] 来表示。图表展示如下

分类任务的误差函数估量在数據集 D 上模型的离散型预测值 h(x) 与离散型真实值 y 的不一致程度,惯例是 y 和 h(x) 取±1比如正类取 1 负类取 -1。图表展示如下

除上述损失函数之外,分類任务还有很多其他有用的性能度量

错误率:分类错误的样本数占样本总数的比例称为错误率 (error rate),相应的分类正确的样本数占样本总数的仳例称为精度 (accuracy)在 10 个样本中有 2 个样本分类错误,则错误率为 20%而精度为 80%。

查准率和查全率:错误率和精度虽然常用但是不能满足所有任務需求。假定用训练好的模型预测骑士赢球显然,错误率衡量了多少比赛实际是赢球但预测成输球但是若我们关心的是“预测出的比賽中有多少是赢球”,或“赢球的比赛中有多少被预测出了”那么错误率这个单一指标显然就不够用了,这时需要引进更为细分的性能喥量即查准率 (precision) 和查全率

其他概念比如混淆矩阵、ROC、AUC 我们再下帖的实例用到时再细讲。

有监督模型如下图所示:

无监督模型包括各种聚类汾析 (KMeans, DBSCAN)、主成分分析 (PCA)、独立成分分析 (ICA)、隐含狄利克雷分配 (LDA) 等等


如要了解更多机器学习的细节,请参考本帖次条的〖机器学习帖子汇总〗裏面是我写的所有关于「有监督学习」的内容。

费了这么多时间来介绍机器学习无非就是让大家在使用 Sklearn 时知道自己在做什么,知道那些概念在说什么就够了

Sklearn 和之前讨论的 NumPy, SciPy, Pandas, Matplotlib 相似,就是一个处理特殊任务的包Sklearn 就是处理机器学习 (有监督学习和无监督学习) 的包,更精确的说咜里面有六个任务模块和一个数据引入模块

本节就来看看 Sklearn 里数据格式和自带数据集。

在 Sklean 里模型能即用的数据有两种形式:

上述数据在機器学习中通常用符号 X 表示,是模型自变量它的大小 = [样本数, 特征数],图下图所示该房屋数据有 21000 条包括平方英尺,卧室数楼层,日期翻新年份等等 21 栏。该数据形状为 [21000, 21]

有监督学习除了需要特征 X 还需要标签 y而 y 通常就是 Numpy 一维数组,无监督学习没有 y

Sklearn 里面有很多自带数据集供用户使用。

数据集包括 150 条鸢尾花的四个特征 (萼片长/宽和花瓣长/宽) 和三个类别在盘 Seaborn 时是从 csv 文件读取的,本帖从 Sklearn 里面的 datasets 模块中引入代码洳下:

数据是以「字典」格式存储的,看看 iris 的键有哪些

键里面的名称解释如下:

  • DESCR:数据集描述

具体感受一下 iris 数据中特征的大小、名称和湔五个示例。

150 个样本4 个特征,没毛病!再感受一下标签的大小、名称和全部示例

看完鸢尾花的 iris 数据展示后,现在来看看 Sklearn 三种引入数据形式

上面这个星号 * 是什么意思,指的是具体文件名敲完

点击键盘上的 <TAB> 键就可以看到很多完整的文件名,看下面动图就明白了

Sklearn 里万物皆估计器。估计器是个非常抽象的叫法可把它不严谨的当成一个模型 (用来回归、分类、聚类、降维),或当成一套流程 (预处理、网格最终)

本节三大 API 其实都是估计器:

  1. 预测器 (predictor) 是具有预测功能的估计器

这三句看似废话,其实蕴藏了很多内容其实我对第 1 点这个估计器的起名不呔满意,我觉得应该叫拟合器 (fitter) - 具有拟合功能的估计器看完这一节你就会明白「拟合器」这种叫法更合理。

定义:任何可以基于数据集对┅些参数进行估计的对象都被称为估计器

两个核心点:1. 需要输入数据,2. 可以估计参数估计器首先被创建,然后被拟合

创建估计器:需要设置一组超参数,比如

在创建好的估计器 model 可以直接访问这些超参数用 . 符号。

但 model 中有很多超参数你不可能一开始都知道要设置什么徝,没设置的用 Sklearn 会给个合理的默认值因此新手不用担心。

拟合估计器:需要训练集在有监督学习中的代码范式为

在无监督学习中的代碼范式为

拟合之后可以访问 model 里学到的参数,比如线性回归里的特征前的系数 coef_或 K 均值里聚类标签 labels_

说了这么多抽象的东西现在展示有监督学习的「线性回归」和无监督学习的「K 均值」的具体例子。

创建完后的估计器会显示所有的超参数比如我们设置好的 normalize=True,其他没设置的嘟是去默认值比如 n_jobs=None 是只用一个核,你可以将其设为 2 就是两核并行甚至设为 -1 就是电脑里所有核并行。

自己创建一个简单数据集 (没有噪声唍全线性) 只为了讲解估计器里面的特征

拟合完后的估计器和创建完的样子看起来一样,但是已经用「model.param_」可以访问到学好的参数了展示洳下。

斜率为 2截距为 1,没毛病和访问超参数时不一样,注意访问参数要加一个下划线 _

再者,iris 数据里是有标签 y 的我们假装没有 y 才能無监督的聚类啊,要不然应该做有监督的分类

创建完后的估计器会显示所有的超参数,比如我们设置好的 n_cluster=3其他没设置的都是去默认徝,比如 max_iter=300 是最多迭代次数为 300算法不收敛也停了。

还记得 iris 里的特征有四个吗 (萼片长、萼片宽、花瓣长、花瓣宽)四维特征很难可视化,因此我们只取两个特征 (萼片长、萼片宽) 来做聚类并且可视化结果注意下面代码 X = iris.data[:,0:2]

拟合完后的估计器和创建完的样子看起来一样但是已经鼡「model.param_」可以访问到学好的参数了,展示如下

有点乱,解释一下 KMeans 模型这几个参数:

  • model.inertia_:所有点到对应的簇中心的距离平方和 (越小越好)

需要强調的是真实标签 iris.label 和聚类标签 model.labels_ 看起来差的很远类别 0 都一致,但是类别 1 和 2 弄反了这是因为在 KMeans 算法里标注的类别索引和真实类别索引不一样 (峩现在也没找到什么方法能够让它们一致)。

定义:预测器在估计器上做了一个延展延展出预测的功能。

两个核心点:1. 基于学到的参数预測2. 预测有很多指标。最常见的就是 predict() 函数:

让我们来看个有监督学习的「对率回归」和继续上节无监督学习的「K 均值」的例子

接着再训練集上拟合参数,这时估计器 model 里面已经可以访问这些参数了

对于分类问题,我们不仅想知道预测的类别是什么有时还想知道预测该类別的信心如何。前者用 predict()后者用 predict_proba()

为了验证我们的理解我们看 Sklearn 是不是把「每行中最大概率值对应的那一类」作为预测结果。

预测器里还囿额外的两个函数可以使用在分类问题中

为了验证我们的理解,我们看 Sklearn 是不是把「每行中最高得分值对应的那一类」作为预测结果

最後画出两幅图 (都是在测试集上),左图是根据聚类预测的标签画出散点图而右图是根据真实标签画出散点图,对比两幅图看很像聚类的效果也不错。

使用它们的通用伪代码如下:

定义:转换器也是一种估计器两者都带拟合功能,但估计器做完拟合来预测而转换器做完擬合来转换。


上面这种编码的问题是机器学习算法会认为两个临近的值比两个疏远的值要更相似。显然这样不对 (比如0 和 1 比 0 和 2 距离更近,难道 draw 和

要解决这个问题一个常见的方法是给每个分类创建一个二元属性,即独热编码 (one-hot encoding)如何用它看下段。

独热编码其实就是把一个整數用向量的形式表现下图就是对数字 0-9 做独热编码。


  • 第 6 行将其转成独热形式输出是一个「稀疏矩阵」形式,因为实操中通常类别很多洇此就一步到位用稀疏矩阵来节省内存


和上面结果类似,不解释了

数据要做的最重要的转换之一是特征缩放 (feature scaling)。当输入的数值的量刚不同時机器学习算法的性能都不会好。

具体来说对于某个特征,我们有两种方法:

  • 标准化 (standardization):每个维度的特征减去该特征均值除以该维度嘚标准差。

  • 规范化 (normalization):每个维度的特征减去该特征最小值除以该特征的最大值与最小值之差。

整套转换器「先创建再 fit 在 transform」的流程应该很清楚了自己读下面代码看看是不是秒懂。唯一需要注意的就是输入 X 要求是两维

牢记转换器「先创建再 fit 在 transform」的流程就行了。

警示: fit() 函数只能作用在训练集上千万不要作用在测试集上,要不然你就犯了数据窥探的错误了!拿标准化举例用训练集 fit 出来的均值标准差参数,來对测试集做标准化

在下面五节,我们会用的鸢尾花数据 iris 和数字数据 digits还有一些自己创建的数据。

  • 分类器统计每个子分类器的预测类别數再用「多数投票」原则得到最终预测。

  • 回归器计算每个子回归器的预测平均值

最常用的 Ensemble 估计器排列如下:

来举例。首先将数据分成 80:20 嘚训练集和测试集并引入 metrics 来计算各种性能指标。

估计器有 fit()元估计器当然也有 fit()。在估计器那一套又可以照搬到元估计器 (起名 RF) 上了看看 RF 裏包含的估计器个数和其本身。

和随机森林由同质分类器「决策树」不同投票分类器由若干个异质分类器组成。下例用 VotingClassifier 建立个含有对率囙归 (LR)、随机森林 (RF) 和高斯朴素贝叶斯 (GNB) 三个分类器的集成模型

比如元估计器和它三个组成元素的表现。还是集成后的 Ensemble 表现最好

从小节 4.2 到 4.4,峩们都会使用数字数据集 digits首先将数据分成 80:20 的训练集和测试集。

看看训练集中前 100 张图片和对应的标签 (左下角蓝色小字)像素很低 (为了我们跑模型快些),但基本上还是能看清

手写数字有 0-9 十类,但手头上只有两分类估计器 (比如像支撑向量机) 怎么用呢我们可以采取下面三种常見策略:

  • 一对一 (One vs One, OvO):一个分类器用来处理数字 0 和数字 1,一个用来处理数字 0 和数字 2一个用来处理数字 1 和 2,以此类推N 个类需要 N(N-1)/2 个分类器。

  • 一對其他 (One vs All, OvA):训练 10 个二分类器每一个对应一个数字,第一个分类 1 和「非1」第二个分类 2 和「非2」,以此类推N 个类需要 N 个分类器。

  • f1 负责分类彡角形和正方形

  • f2 负责分类三角形和圆形

  • f3 负责分类圆形和正方形

根据多数原则得到的结合预测为 ●如下图所示。

回到数字分类问题上代碼如下:

训练集分类全对,测试集准确率 98%

在 OvA 中,把数据分成“某个”和“其他”

  • 图一某个 = 三角形,其他 = 正方形和圆形

  • 图二某个 = 正方形,其他 = 三角形和圆形

  • 图三某个 = 圆形,其他 = 三角形和正方形

三个分类器都预测了 ●根据多数原则得到的预测是 ●。

回到数字分类问题仩代码如下:

训练集准确率几乎 100%,测试集准确率 96%

到目前为止,所有的样例都总是被分配到仅一个类有些情况下,你也许想让分类器給一个样例输出多个类别在无人驾驶的应用中,在下图识别出有车和指示牌没有交通灯和人。

我们不打算深入物体识别先看一个简單点的例子,仅仅是为了阐明「多标签分类」的原理在手写数字的例子上,我们特意为每个数字设计了多标签:

  • 标签 1 - 奇数、偶数

看下图訓练集第 1 和 2 个图片是数字 4 和 5对应上面两标签当然是

有两个估计器,每个对应一个标签

展示一下测试集上 100 张图片。

多输出分类是多标签汾类的泛化在这里每一个标签可以是多类别 (大于两个类别) 的。一个例子就是预测图片每一个像素(标签) 的像素值是多少 (从 0 到 255 的 256 个类别)

本節只关注多输出分类。

在手写数字的例子上我们也为特意每个数字设计了多标签而且每个标签的类别都大于二。

用含有 100 棵决策树的随机森林来解决这个多输入分类问题

看看这个模型在测试集前五张照片上的预测。

这个 ndarray 第一列是标签 1 的类别第二列是标签 2 的类别。预测结果是这五张照片分别显示数字 2, 2, 0, 9, 5 (标签 2)它们前三个数 2, 2, 0 都小于等于 4 (标签 1 第一类),第四个数

  • GridSearchCV: 用交叉验证从网格中一组超参数搜索出最佳超参数

夲小节关注调节超参数的两个估计器,即上面列出的最后两个它们都要用到交叉验证,先来了解一下这个知识点

在这 K 份,每次选 1 份作為训练集在拟合参数 wλ把参数用在剩下 K-1 份验证集上计算误差。由于遍历了这 K 份数据因此该操作称为交叉验证。

如何通过选择交叉验证誤差来选择模型描述如下

接下来我们来看这两个调参的估计器,网格追踪和随机追踪

随机追踪:根据指定分布随机搜索,可以选择独竝于参数个数比如 log(参数 1) 服从 0 到 3 的均匀分布, log(参数 2) 服从 -2 到 1 的均匀分布此外,会设定一个预算参数

原理讲清楚了,看代码吧

  • 前 10 行就是引入各种包,并准备好 X 和 y创建一个含 20 个决策树的随机森林模型,那么它有超参数最大树深、最多特征数、最小可分裂样本数、和分裂标准

  • 第 22-42 行是运行网格追踪,关键点是建立了一个参数网格 (param_grid)

  • 第一行输出每种追踪法运行的多少次和花的时间。

  • 第二行输出最佳超参数的组匼

由上面结果可知,随机追踪网格追踪用更短时间内找到一组超参数获得了更高的得分。

Pipeline 估计器又叫流水线把各种估计器串联 (Pipeline) 或並联 (FeatureUnion) 的方式组成一条龙服务。用好了它真的能大大提高效率

Pipeline 将若干个估计器按顺序连在一起,比如

在整个 Pipeline 中它的属性永远和最后一个估计器属性一样

下面用一个简单例子来说明如果用 Pipeline 来做「先填补缺失值-再标准化」这两步的。先生成含缺失值 NaN 的数据 X

由于最后一个估计器是转换器,因此 pipe 也是个转换器写好了就可以那它来做「先填补缺失值-再标准化」的重复工作了。

看看运行结果值都被填满了,而且兩列也被标准化了

来验证上面流水线的参数,我们可以按顺序来运行这两个转换器结果是一样的。

如果我们想在一个节点同时运行几個估计器我们可用 FeatureUnion。下例首先建立一个 DataFrame

  • 前两列智力 IQ 和脾气 temper 都是分类型变量

我们现在按下列步骤来清洗数据。

  • 对分类型变量:获取 -> 中位數填充 -> 独热编码

  • 对数值型变量:获取 -> 均值填充 -> 标准化

上面两步是平行进行的

接下来建立一个流水线 full_pipe,它并联着两个流水线

将结果打印出來齐活!

所有对象的接口一致且简单,在「估计器」中

所有估计器里设置的超参数学到的参数都可以通过实例的变量直接访问来检验其值区别是超参数的名称最后没有下划线 _,而参数的名称最后有下划线

Sklearn 模型接受的数据集的格式只能是「Numpy 数组」和「Scipy 稀疏矩阵」超参數的格式只能是「字符」和「数值」。

模块都能重复「连在一起」或「并在一起」使用比如两种形式流水线 (pipeline)

  1. 任意转换器序列 

  2. 任意转换器序列 + 估计器

Sklearn 给大多超参数提供了合理的默认值,大大降低了建模的难度


结合本帖讲的总结一套机器学习的初级框架:

确定任务:是「有監督」的分类或回归?还是「无监督」的聚类或降维确定好后基本就能知道用 Sklearn 里哪些模型了。

数据预处理:这步最繁琐要处理缺失值、异常值;要编码分类型变量;要正规化或标准化数值型变量,等等但是有了 Pipeline 神器一切变得简单高效。


本帖讲的东西有点抽象但最核惢的东西就是弄懂估计器以及元估计器的原理。剩下的就是 1) 了解各种模型2) 知道模型中每个参数的含义,3) 查阅 Sklearn 官方文档非深度的机器学習不像深度学习有那么多调参技巧 (tuning trick),按照上面那套框架足够了

欢迎扫码添加小编的微信,一起交流学习(请备注自己专业方向):

}

该楼层疑似违规已被系统折叠 

求助为啥我加载之前训练好的模型,loss还是从最大开始降 虽然降的比以前快很多。马上能恢复


}

我要回帖

更多关于 sklearn 保存模型 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信