这样编的matlabbp神经网络matlab编程预测为什么等不到好效果,得出来的系统在所有年份输出都是同一个数!

你正在使用的浏览器版本过低,将不能正常浏览和使用知乎。503 Service Temporarily Unavailable
503 Service Temporarily Unavailable
openresty/1.9.7.4《MATLAB神经网络30个案例分析》 MATLAB中文论坛【摘要 书评 试读】图书
iPhone/iPad/Mac
Android手机或平板电脑
请输入您的手机号码,获取Kindle阅读软件的下载链接。
通知出版社:
没有Kindle设备?,或者下载免费 。
出版社: 北京航空航天大学出版社; 第1版 (日)
平装: 286页
语种: 简体中文
26 x 18.4 x 1.2 cm
品牌: 北京航空航天大学出版社
ASIN: B003HGHB9W
亚马逊热销商品排名:
图书商品里排第320,516名 ()
第1章 BP神经网络的数据分类——语音特征信号分类1本案例选取了民歌、古筝、摇滚和流行四类不同音乐,用BP神经网络实现对这四类音乐的有效分类。第2章 BP神经网络的非线性系统建模——非线性函数拟合11本章拟合的非线性函数为y=x21+x22。第3章 遗传算法优化BP神经网络——非线性函数拟合21根据遗传算法和BP神经网络理论,在MATLAB软件中编程实现基于遗传算法优化的BP神经网络非线性系统拟合算法。第4章 神经网络遗传算法函数极值寻优——非线性函数极值寻优36对于未知的非线性函数,仅通过函数的输入输出数据难以准确寻找函数极值。这类问题可以通过神经网络结合遗传算法求解,利用神经网络的非线性拟合能力和遗传算法的非线性寻优能力寻找函数极值。第5章 基于BP_Adaboost的强分类器设计——公司财务预警建模45BP_Adaboost模型即把BP神经网络作为弱分类器,反复训练BP神经网络预测样本输出,通过Adaboost算法得到多个BP神经网络弱分类器组成的强分类器。第6章 PID神经元网络解耦控制算法——多变量系统控制54根据PID神经元网络控制器原理,在MATLAB中编程实现PID神经元网络控制多变量耦合系统。第7章 RBF网络的回归——非线性函数回归的实现65本例用RBF网络拟合未知函数,预先设定一个非线性函数,如式y=20+x21-10cos(2πx1)+x22-10cos(2πx2)所示,假定函数解析式不清楚的情况下,随机产生x1,x2和由这两个变量按上式得出的y。将x1,x2作为RBF网络的输入数据,将y作为RBF网络的输出数据,分别建立近似和精确RBF网络进行回归分析,并评价网络拟合效果。第8章 GRNN的数据预测——基于广义回归神经网络的货运量预测73根据货运量影响因素的分析,分别取国内生产总值(GDP),工业总产值,铁路运输线路长度,复线里程比重,公路运输线路长度,等级公路比重,铁路货车数量和民用载货汽车数量8项指标因素作为网络输入,以货运总量,铁路货运量和公路货运量3项指标因素作为网络输出,构建GRNN,由于训练数据较少,采取交叉验证方法训练GRNN神经网络,并用循环找出最佳的SPREAD。第9章 离散Hopfield神经网络的联想记忆——数字识别81根据Hopfield神经网络相关知识,设计一个具有联想记忆功能的离散型Hopfield神经网络。要求该网络可以正确地识别0~9这10个数字,当数字被一定的噪声干扰后,仍具有较好的识别效果。第10章 离散Hopfield神经网络的分类——高校科研能力评价90某机构对20所高校的科研能力进行了调研和评价,试根据调研结果中较为重要的11个评价指标的数据,并结合离散Hopfield神经网络的联想记忆能力,建立离散Hopfield高校科研能力评价模型。第11章 连续Hopfield神经网络的优化——旅行商问题优化计算100现对于一个城市数量为10的TSP问题,要求设计一个可以对其进行组合优化的连续型Hopfield神经网络模型,利用该模型可以快速地找到最优(或近似最优)的一条路线。第12章 SVM的数据分类预测——意大利葡萄酒种类识别112将这178个样本的50%做为训练集,另50%做为测试集,用训练集对SVM进行训练可以得到分类模型,再用得到的模型对测试集进行类别标签预测。第13章 SVM的参数优化——如何更好的提升分类器的性能122本章要解决的问题就是仅仅利用训练集找到分类的最佳参数,不但能够高准确率的预测训练集而且要合理的预测测试集,使得测试集的分类准确率也维持在一个较高水平,即使得得到的SVM分类器的学习能力和推广能力保持一个平衡,避免过学习和欠学习状况发生。第14章 SVM的回归预测分析——上证指数开盘指数预测133对上证指数从-每日的开盘数进行回归分析。第15章 SVM的信息粒化时序回归预测——上证指数开盘指数变化趋势和变化空间预测141在这个案例里面我们将利用SVM对进行模糊信息粒化后的上证每日的开盘指数进行变化趋势和变化空间的预测。若您对此书内容有任何疑问,可以凭在线交流卡登录中文论坛与作者交流。第16章 自组织竞争网络在模式分类中的应用——患者癌症发病预测153本案例中给出了一个含有60个个体基因表达水平的样本。每个样本中测量了114个基因特征,其中前20个样本是癌症病人的基因表达水平的样本(其中还可能有子类), 中间的20个样本是正常人的基因表达信息样本, 余下的20个样本是待检测的样本(未知它们是否正常)。以下将设法找出癌症与正常样本在基因表达水平上的区别,建立竞争网络模型去预测待检测样本是癌症还是正常样本。第17章SOM神经网络的数据分类——柴油机故障诊断159本案例中给出了一个含有8个故障样本的数据集。每个故障样本中有8个特征,分别是前面提及过的:最大压力(P1)、次最大压力(P2)、波形幅度(P3)、上升沿宽度(P4)、波形宽度(P5)、最大余波的宽度(P6)、波形的面积(P7)、起喷压力(P8),使用SOM网络进行故障诊断。第18章Elman神经网络的数据预测——电力负荷预测模型研究170根据负荷的历史数据,选定反馈神经网络的输入、输出节点,来反映电力系统负荷运行的内在规律,从而达到预测未来时段负荷的目的。第19章 概率神经网络的分类预测——基于PNN的变压器故障诊断176本案例在对油中溶解气体分析法进行深入分析后,以改良三比值法为基础,建立基于概率神经网络的故障诊断模型。第20章 神经网络变量筛选——基于BP的神经网络变量筛选183本例将结合BP神经网络应用平均影响值(MIV,Mean Impact Value)方法来说明如何使用神经网络来筛选变量,找到对结果有较大影响的输入项,继而实现使用神经网络进行变量筛选。第21章 LVQ神经网络的分类——乳腺肿瘤诊断188威斯康星大学医学院经过多年的收集和整理,建立了一个乳腺肿瘤病灶组织的细胞核显微图像数据库。数据库中包含了细胞核图像的10个量化特征(细胞核半径、质地、周长、面积、光滑性、紧密度、凹陷度、凹陷点数、对称度、断裂度),这些特征与肿瘤的性质有密切的关系。因此,需要建立一个确定的模型来描述数据库中各个量化特征与肿瘤性质的关系,从而可以根据细胞核显微图像的量化特征诊断乳腺肿瘤是良性还是恶性。第22章 LVQ神经网络的预测——人脸朝向识别198现采集到一组人脸朝向不同角度时的图像,图像来自不同的10个人,每人5幅图像,人脸的朝向分别为:左方、左前方、前方、右前方和右方。试创建一个LVQ神经网络,对任意给出的人脸图像进行朝向预测和识别。第23章 小波神经网络的时间序列预测——短时交通流量预测208根据小波神经网络原理在MATLAB环境中编程实现基于小波神经网络的短时交通流量预测。第24章 模糊神经网络的预测算法——嘉陵江水质评价218根据模糊神经网络原理,在MATLAB中编程实现基于模糊神经网络的水质评价算法。第25章 广义神经网络的聚类算法——网络入侵聚类229模糊聚类虽然能够对数据聚类挖掘,但是由于网络入侵特征数据维数较多,不同入侵类别间的数据差别较小,不少入侵模式不能被准确分类。本案例采用结合模糊聚类和广义神经网络回归的聚类算法对入侵数据进行分类。第26章 粒子群优化算法的寻优算法——非线性函数极值寻优236根据PSO算法原理,在MATLAB中编程实现基于PSO算法的函数极值寻优算法。第27章 遗传算法优化计算——建模自变量降维243在第21章中,建立模型时选用的每个样本(即病例)数据包括10个量化特征(细胞核半径、质地、周长、面积、光滑性、紧密度、凹陷度、凹陷点数、对称度、断裂度)的平均值、10个量化特征的标准差和10个量化特征的最坏值(各特征的3个最大数据的平均值)共30个数据。明显,这30个输入自变量相互之间存在一定的关系,并非相互独立的,因此,为了缩短建模时间、提高建模精度,有必要将30个输入自变量中起主要影响因素的自变量筛选出来参与最终的建模。第28章 基于灰色神经网络的预测算法研究——订单需求预测258根据灰色神经网络原理,在MATLAB中编程实现基于灰色神经网络的订单需求预测。第29章 基于Kohonen网络的聚类算法——网络入侵聚类268根据Kohonen网络原理,在MATLAB软件中编程实现基于Kohonen网络的网络入侵分类算法。第30章 神经网络GUI的实现——基于GUI的神经网络拟合、模式识别、聚类277为了便于使用MATLAB编程的新用户,快速地利用神经网络解决实际问题,MATLAB提供了一个基于神经网络工具箱的图形用户界面。考虑到图形用户界面带来的方便和神经网络在数据拟合、模式识别、聚类各个领域的应用,MATLAB R2009a提供了三种神经网络拟合工具箱(拟合工具箱/模式识别工具箱/聚类工具箱)。
平均4.3 星
与其他用户分享您的观点
热门买家评论
已确认购买
本来还在为我的研究生课题发愁,我不是理科生,对神经网络一无所知,更不要说用Matlab了。研究生课题,最后一项就是用神经网络来预测数据,正发愁的时候,导师让我参考此书,没想到书里的案例特别容易模仿,只用把数据换成我的数据即可,效果很好。感谢作者在Matlab论坛帮我解答问题,现在课题基本结束了,谢谢你们的辛苦付出。
5 个人发现此评论有用. 这条评论对您有用吗?
正在提交你的反馈。
感谢您的反馈。
很抱歉,我们没有记录您的投票。请重试
已确认购买
书籍里的Matlab神经网络程序很好,特别喜欢这样模块化的程序,看起来不累,也很容易懂。
7 个人发现此评论有用. 这条评论对您有用吗?
正在提交你的反馈。
感谢您的反馈。
很抱歉,我们没有记录您的投票。请重试
已确认购买
此书视频在哪????、
9 个人发现此评论有用. 这条评论对您有用吗?
正在提交你的反馈。
感谢您的反馈。
很抱歉,我们没有记录您的投票。请重试
已确认购买
我们导师很有意思,跟我们说以后遇到神经网络编程问题,问这本书(的作者),不要问他。这本书的“在线提问、有问必答”很有创意,导师很喜欢。相信是未来书籍的趋势。很喜欢这种案例形式的书籍,可以快速帮助我们解决实际课题。特别喜欢前言里的一段话:1个小时之内,就能写出自己需要的神经网络程序。作者们加油,以后还有很多问题在论坛请教你们。
1 个人发现此评论有用. 这条评论对您有用吗?
正在提交你的反馈。
感谢您的反馈。
很抱歉,我们没有记录您的投票。请重试
已确认购买
第一本是师兄买的,我很喜欢这本书,就抢过来了,(*^__^*) 嘻嘻。现在买一本还给师兄,实验室今天又有3个师妹想来购买,这里都没货。喜欢案例的书籍,模仿起来特别容易。这本书最大的亮点应该是:“在线提问,有问必答”。程序有问题,可以问作者,这个服务真好,希望其他书籍也有这个功能。
5 个人发现此评论有用. 这条评论对您有用吗?
正在提交你的反馈。
感谢您的反馈。
很抱歉,我们没有记录您的投票。请重试
已确认购买
跟踪这本书已经很久了,在Matlab中文论坛看到几位作者对读者的提问真的是“有问必答”,让我很受感动,第一次发现自己离作者这么近,每天都能在线交流。以前一直认为神经网络很难学习,可能是因为本科的时候,老师课讲的不好,当时大家普遍认为神经网络很难学习。可是看了此书以及此书的31套视频以后,我现在几乎能在10分钟以内、搭建出6种适合我课题的神经网络模型(我导师对我刮目想看,^_^),原来学习神经网络这么容易。我本人特别喜欢此书的写作方式:全部都是案例,作者没有浪费笔墨在Matlab那些基础知识上,这样的做法非常好。其实我们只要能模仿程序,基础知识自然就慢慢懂了,希望作者能继续坚持这样的风格,早日看到书籍再版。再次谢谢各位作者,我就是经常在论坛问你们关于SVM的会员,谢谢你们解答,现在我对SVM比较精通,正在教师弟师妹们,以后还得继续请教你们。写这么多,就是为了支持这样的好书。
11 个人发现此评论有用. 这条评论对您有用吗?
正在提交你的反馈。
感谢您的反馈。
很抱歉,我们没有记录您的投票。请重试
已确认购买
这本书的参考价值很大,程序很容易上手,期待再版的时候,能够有更多的案例。
2 个人发现此评论有用. 这条评论对您有用吗?
正在提交你的反馈。
感谢您的反馈。
很抱歉,我们没有记录您的投票。请重试
已确认购买
书的纸质很好,作者的讲解也很详细,适合初学者,一点点啃也容易看,我通常一天能看四五章……但书的程序常常打错,比如矩阵是否要转置等等,不信可以在ilovematlab论坛看看,读者交流版块基本是挑错的帖子看的时候要结合在论坛下的程序,慢慢调试才能明白书很好,但亦要吐槽
这条评论对您有用吗?
正在提交你的反馈。
感谢您的反馈。
很抱歉,我们没有记录您的投票。请重试
已确认购买
商品本身挺好的,代码要上论坛下载,可以接受,但是视频要另外购买,没有附赠光盘,感觉有点........
1 个人发现此评论有用. 这条评论对您有用吗?
正在提交你的反馈。
感谢您的反馈。
很抱歉,我们没有记录您的投票。请重试
已确认购买
无意中在Matlab中文论坛看到此书作者经常公布勘误结果.感觉心里特别踏实,我读参考书,就怕遇到有错误的地方,因为不知道是自己理解错了还是作者写错了。现在有了这个页面,可以随时跟作者反应自己的疑问,这样的互动方式非常值得其他书籍学习。
这条评论对您有用吗?
正在提交你的反馈。
感谢您的反馈。
很抱歉,我们没有记录您的投票。请重试
按发表时间排序
查找其它相似商品
查看产品详情页面完毕后,在此处了解返回您感兴趣的页面的方式。
查看产品详情页面完毕后,在此处了解返回您感兴趣的页面的方式。下次自动登录
现在的位置:
& 综合 & 正文
BP神经网络应用于手写数字识别–matlab程序
二:BP神经网络应用于字符识别
字符包括汉字,字母,数字和一些符号。汉字有几千个,字母有几十个,数字的类最少只有10个,所以选择简单的手写数字字符来实现。结合三个相关的和论文,一个是语音特征的分类(不调用神经网络工具箱相关函数实现),另外两个是关于手写数字识别的。处理的数据集是放在10个文件夹里,文件夹的名称对应存放的手写数字图片的数字,每个数字500张,每张图片的像素统一为28*28,如下
这5000张随机选取4500张进行训练,剩下的500张用来测试。为了能对BP神经网络有更深入的了解,选择一步步详细实现。
BP神经网络的特点:信号前向传递,信号反向传播。若输出存在误差,根据误差调整权值和阈值,使网络的输出接近预期。
在用BP神经网络进行预测之前要训练网络
1.网络初始化:各个参数的确定包括输入,输出,隐含层的节点数,输入和隐含,隐含和输出层之间的权值,隐含,输出层的阈值,学习速度和激励函数。
2.计算隐含层输出
3.计算输出层输出
4.误差计算
5.权值更新
6.阈值更新
7.判断迭代是否结束
模型建立:
BP神经网络构建-BP神经网络训练-BP神经网络分类
1.确定神经网络的输入,输出。
输入是BP神经网络很重要的方面,输入的数据是手写字符经过预处理和特征提取后的数据。预处理有二值化,裁剪掉空白的区域,然后再统一大小为70*50为特征提取做准备。特征提取采用的是粗网格特征提取,把图像分成35个区域,每个区域100像素,统计区域中1像素所占的比例。经过预处理特征提取后,28*28图像转成1*35的特征矢量。提取完5000张图片后,依次把所有的特征存于一个矩阵(5000*35)中,最后在加上第36行,用来存放原图片的真值。于是最后得到是包含特征向量和真值的矩阵(5000*36),特征向量是神经网络的输入,真值是其输出。
2.神经的网络的训练
用matlab的rands函数来实现网络权值的初始化,网络结构为输入层35,隐藏层34,输出层10,学习速率为0.1,隐藏层激励函数为sigmoid函数。随机抽取4500张图片提取特征后输入,按照公式计算隐含层和输出层输出,误差,更新网络权值。
3.神经网络的预测
训练好神经网络之后,用随机抽取的500个数字字符对网络进行预测,输入特征向量,计算隐含层和输出层输出,得到最后预测的数据。同时计算每个数字的正确率和全体的正确率。最后得到的总体正确率为0.8004。
Files= dir('E:/Matlabdip/word_recognition/testdatabase');
LengthFiles= length(Files);
%========读取存在testdatabase下0-10个文件的全部图片========%
%========存放在number中,number{1}是数字0有500张========%
fori = 3:LengthF
if strcmp(Files(i).name,'.')||strcmp(Files(i).name,'..')
number{i-2}=BatchReadImg(strcat('E:/Matlabdip/word_recognition/testdatabase','/',Files(i).name),0);
charvec1=zeros(35,5000);
%========对读取的图片预处理(二值化-裁剪-特征提取)========%
for i=1:10
for j=1:500
I1=number{1,i}{1,j};
Ibw = im2bw(I1,graythresh(I1));
bw2 = edu_imgcrop(Ibw);%对图像进行裁剪,使边框完全贴紧字符
charvec = edu_imgresize(bw2);%提取特征统计每个小区域中图像象素所占百分比作为特征数据
charvec1(:,(i-1)*500+j)=
index=[zeros(1,500),zeros(1,500)+1,...
zeros(1,500)+2,zeros(1,500)+3,zeros(1,500)+4,zeros(1,500)+5,zeros(1,500)+6,zeros(1,500)+7,zeros(1,500)+8,zeros(1,500)+9];
charvec1(36,:)=
%=========BP神经网络创建,训练和测试========%
%从1到5000间随机排序(在[0,1]之间产生5000个随机数)==将数据顺序打乱
k=rand(1,5000);
[m,n]=sort(k);
%输入输出数据
input=charvec1(1:35,:);
output1=charvec1(36,:);
%把输出从1维变成10维
fori=1:5000
switch output1(i)
output(:,i)=[1 0 0 0 0 0 0 0 0 0]';
output(:,i)=[0 1 0 0 0 0 0 0 0 0]';
output(:,i)=[0 0 1 0 0 0 0 0 0 0]';
output(:,i)=[0 0 0 1 0 0 0 0 0 0]';
output(:,i)=[0 0 0 0 1 0 0 0 0 0]';
output(:,i)=[0 0 0 0 0 1 0 0 0 0]';
output(:,i)=[0 0 0 0 0 0 1 0 0 0]';
output(:,i)=[0 0 0 0 0 0 0 1 0 0]';
output(:,i)=[0 0 0 0 0 0 0 0 1 0]';
output(:,i)=[0 0 0 0 0 0 0 0 0 1]';
%随机提取4500个样本为训练样本,500个样本为预测样本
input_train=input(:,n(1:4500));
output_train=output(:,n(1:4500));
input_test=input(:,n());
output_test=output(:,n());
% %输入数据归一化
%[inputn,inputps]=mapminmax(input_train);
%% 网络结构初始化
midnum=34;
outnum=10;
%权值初始化
w1=rands(midnum,innum);%输入到隐藏
b1=rands(midnum,1);
w2=rands(midnum,outnum);%隐藏到输出
b2=rands(outnum,1);
w2_1=w2;w2_2=w2_1;
w1_1=w1;w1_2=w1_1;
b1_1=b1;b1_2=b1_1;
b2_1=b2;b2_2=b2_1;
alfa=0.01;
%% 网络训练
%for ii=1:10
for i=1:1:4500
%% 网络预测输出
x=input_train(:,i);
% 隐含层输出
for j=1:1:midnum
I(j)=input_train(:,i)'*w1(j,:)'+b1(j);
Iout(j)=1/(1+exp(double(-I(j))));
% 输出层输出
yn=w2'*Iout'+b2;
%% 权值阀值修正
e=output_train(:,i)-
E(ii)=E(ii)+sum(abs(e));
%计算权值变化率
%=======由于采用的是sigmoid单元,所以要对每个输出单元以及隐藏单元计算误差项======%
for j=1:1:midnum
S=1/(1+exp(double(-I(j))));
FI(j)=S*(1-S);
for k=1:1:innum
for j=1:1:midnum
dw1(k,j)=FI(j)*x(k)*(w2(j,:)*e);%
db1(j)=FI(j)*(w2(j,:)*e);
w1=w1_1+xite*dw1';
b1=b1_1+xite*db1';
w2=w2_1+xite*dw2';
b2=b2_1+xite*db2';
w1_2=w1_1;w1_1=w1;
w2_2=w2_1;w2_1=w2;
b1_2=b1_1;b1_1=b1;
b2_2=b2_1;b2_1=b2;
%%% 语音特征信号分类
%inputn_test=mapminmax('apply',input_test,inputps);
for i=1:500%1500
%隐含层输出
for j=1:1:midnum
I(j)=input_test(:,i)'*w1(j,:)'+b1(j);
Iout(j)=1/(1+exp(double(-I(j))));
%输出层输出
fore(:,i)=w2'*Iout'+b2;
%% 结果分析
%根据网络输出找出数据属于哪类
fori=1:500
output_fore(i)=find(fore(:,i)==max(fore(:,i)))-1;
%BP网络预测误差
error=output_fore'-output1(n())';
%画出预测数字和实际数字的分类图
plot(output_fore,'r')
plot(output1(n())','b')
legend('预测数字','实际数字')
%画出误差图
plot(error)
title('BP网络分类误差','fontsize',12)
xlabel('输入数字','fontsize',12)
ylabel('分类误差','fontsize',12)
k=zeros(1,10);
%找出判断错误的分类属于哪一类
fori=1:500
if error(i)~=0
[b,c]=max(output_test(:,i));
switch c-1
k(1)=k(1)+1;
k(2)=k(2)+1;
k(3)=k(3)+1;
k(4)=k(4)+1;
k(5)=k(5)+1;
k(6)=k(6)+1;
k(7)=k(7)+1;
k(8)=k(8)+1;
k(9)=k(9)+1;
k(10)=k(10)+1;
%找出每类的个体和
kk=zeros(1,10);
fori=1:500
[b,c]=max(output_test(:,i));
switch c-1
kk(1)=kk(1)+1;
kk(2)=kk(2)+1;
kk(3)=kk(3)+1;
kk(4)=kk(4)+1;
kk(5)=kk(5)+1;
kk(6)=kk(6)+1;
kk(7)=kk(7)+1;
kk(8)=k(8)+1;
kk(9)=kk(9)+1;
kk(10)=kk(10)+1;
rightridio=(kk-k)./kk
right=(sum(kk(:))-sum(k(:)))/sum(kk(:));
用到到函数:BatchImg
function [imglist]=BatchReadImg(rootpath,grayflag)
if nargin&2
disp('Not enough parameters!');
filelist=dir(rootpath);
[filenum,temp]=size(filelist);
tempind=0;
imglist=cell(0);
for i=1:filenum
if strcmp(filelist(i).name,'.')|| strcmp(filelist(i).name,'..')||strcmp(filelist(i).name,'Desktop_1.ini')||strcmp(filelist(i).name,'Desktop_2.ini')
tempind=tempind+1;
imglist{tempind}=imread(strcat(rootpath,'/',filelist(i).name));
if grayflag==1
tempcount=size(imglist);
for j=1:tempcount(2)
imglist{j}=rgb2gray(imglist{j});
edu_imgcrop:
function bw2 = edu_imgcrop(bw)
%找到图像边界
[y2temp x2temp] = size(bw);
% 找左边空白
while (sum(bw(:,cntB))==y2temp)
cntB=cntB+1;
while (sum(bw(cntB,:))==x2temp)
cntB=cntB+1;
while (sum(bw(:,cntB))==y2temp)
cntB=cntB-1;
while (sum(bw(cntB,:))==x2temp)
cntB=cntB-1;
bw2=imcrop(bw,[x1,y1,(x2-x1),(y2-y1)]);
edu_imgresize:
function lett = edu_imgresize(bw2)
% ======提取特征,转成5*7的特征矢量,把图像中每10*10的点进行划分相加,进行相加成一个点=====%
%======即统计每个小区域中图像象素所占百分比作为特征数据====%
bw_7050=imresize(bw2,[70,50]);
for cnt=1:7
for cnt2=1:5
Atemp=sum(bw_7050(((cnt*10-9):(cnt*10)),((cnt2*10-9):(cnt2*10))));%10*10box
lett((cnt-1)*5+cnt2)=sum(Atemp);
lett=((100-lett)/100);
lett=lett';
邮箱联系:
&&&&推荐文章:
【上篇】【下篇】}

我要回帖

更多关于 bp神经网络matlab实例 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信