matlab神经网络目前有什么具体的实际应用
MATLAB中文论坛2010年出过一本书,北航出版社的,叫《MATLAB神经网络30个案例分析 (豆瓣)》。我觉得把它作为入门书挺好的,每一章配有视频和代码,可以依样画葫芦。刚刚顺手还看到了另一本书《MATLAB智能算法30个案例分析》,看目录貌似内容也比较接近的。
《神经网络》包含的30个例子:
P神经网络的数据分类——语音特征信号分类
BP神经网络的非线性系统建模——非线性函数拟合
遗传算法优化BP神经网络——非线性函数拟合
神经网络遗传算法函数极值寻优——非线性函数极值寻优
基于BP_Adaboost的强分类器设计——公司财务预警建模
PID神经元网络解耦控制算法——多变量系统控制
RBF网络的回归——非线性函数回归的实现
GRNN的数据预测——基于广义回归神经网络的货运量预测
离散Hopfield神经网络的联想记忆——数字识别
离散Hopfield神经网络的分类——高校科研能力评价
连续Hopfield神经网络的优化——旅行商问题优化计算
SVM的数据分类预测——意大利葡萄酒种类识别
SVM的参数优化——如何更好的提升分类器的性能
SVM的回归预测分析——上证指数开盘指数预测
SVM的信息粒化时序回归预测——上证指数开盘指数变化趋势和变化空间预测
自组织竞争网络在模式分类中的应用——患者癌症发病预测
SOM神经网络的数据分类——柴油机故障诊断
Elman神经网络的数据预测——电力负荷预测模型研究
概率神经网络的分类预测——基于PNN的变压器故障诊断
神经网络变量筛选——基于BP的神经网络变量筛选
LVQ神经网络的分类——乳腺肿瘤诊断
LVQ神经网络的预测——人脸朝向识别
小波神经网络的时间序列预测——短时交通流量预测
模糊神经网络的预测算法——嘉陵江水质评价
广义神经网络的聚类算法——网络入侵聚类
粒子群优化算法的寻优算法——非线性函数极值寻优
遗传算法优化计算——建模自变量降维
基于灰色神经网络的预测算法研究——订单需求预测
基于Kohonen网络的聚类算法——网络入侵聚类
神经网络GUI的实现——基于GUI的神经网络拟合、模式识别、聚类
matlab神经网络目前有什么具体的实际应用
人工神经网络研究目前主要分两类:理论研究和应用研究。
理论研究方面,①利用神经生理与认知科学研究人类思维以及智能机理;②利用神经基础理论的研究成果,用数理方法探索功能更加完善、性能更加优越的神经网络模型,深入研究网络算法和性能。开发新的网络数理理论,如神经网络动力学、非线性神经场等等
应用研究方面,①神经网络的软件模拟和硬件实现的研究;②神经网络在各个领域中应用的研究。如,模式识别、信号处理、专家系统、机器人控制等等
类似下面程序,但是是用rbf神经网络的matlab的源程序是什么啊?
您好:
clc
clear all
close all
%---------------------------------------------------
% 产生训练样本与测试样本,每一列为一个样本
n1 = [rand(3,5),rand(3,5)+1,rand(3,5)+2];
x1 = [repmat([1;0;0],1,5),repmat([0;1;0],1,5),repmat([0;0;1],1,5)];
n2 = [rand(3,5),rand(3,5)+1,rand(3,5)+2];
x2 = [repmat([1;0;0],1,5),repmat([0;1;0],1,5),repmat([0;0;1],1,5)]
xn_train = n1; % 训练样本
dn_train = x1; % 训练目标
xn_test = n2; % 测试样本
dn_test = x2; % 测试目标
%---------------------------------------------------
% 训练与测试
switch 3
case 1
% 神经元数是训练样本个数
P = xn_train;
T = dn_train;
spread = 40; % 此值越大,覆盖的函数值就大(默认为1)
net = newrbe(P,T,spread);
case 2
% 神经元数逐步增加,最多就是训练样本个数
P = xn_train;
T = dn_train;
goal = 1e-8; % 训练误差的平方和(默认为0)
spread = 40; % 此值越大,需要的神经元就越少(默认为1)
MN = size(xn_train,2); % 最大神经元数(默认为训练样本个数)
DF = 1; % 显示间隔(默认为25)
net = newrb(P,T,goal,spread,MN,DF);
case 3
P = xn_train;
T = dn_train;
spread = 0.5; % 此值越大,需要的神经元就越少(默认为1)
net = newgrnn(P,T,spread);
end
X = sim(net,xn_test); % 测试 - 输出为预测值
X = full(compet(X)) % 竞争输出
%---------------------------------------------------
% 结果统计
Result = ~sum(abs(X-x2)) % 正确分类显示为1
Percent = sum(Result)/length(Result) % 正确分类率
用matlab神经网络工具箱构建RBF神经网络,跪求源程序!
希望对您有用clc clear close all %--------------------------------------------------- % 产生训练样本与测试样本,每一列为一个样本 P1 = [rand(3,5),rand(3,5)+1,rand(3,5)+2]; T1 = [repmat([1;0;0],1,5),repmat([0;1;0],1,5),repmat([0;0;1],1,5)]; P2 = [rand(3,5),rand(3,5)+1,rand(3,5)+2]; T2 = [repmat([1;0;0],1,5),repmat([0;1;0],1,5),repmat([0;0;1],1,5)]; %--------------------------------------------------- % 归一化 [PN1,minp,maxp] = premnmx(P1); PN2 = tramnmx(P2,minp,maxp); %--------------------------------------------------- % 训练 switch 2 case 1 % 神经元数是训练样本个数 spread = 1; % 此值越大,覆盖的函数值就大(默认为1) net = newrbe(PN1,T1,spread); case 2 % 神经元数逐步增加,最多就是训练样本个数 goal = 1e-4; % 训练误差的平方和(默认为0) spread = 1; % 此值越大,需要的神经元就越少(默认为1) MN = size(PN1,2); % 最大神经元数(默认为训练样本个数) DF = 1; % 显示间隔(默认为25) net = newrb(PN1,T1,goal,spread,MN,DF); case 3 spread = 1; % 此值越大,需要的神经元就越少(默认为1) net = newgrnn(PN1,T1,spread); end %--------------------------------------------------- % 测试 Y1 = sim(net,PN1); % 训练样本实际输出 Y2 = sim(net,PN2); % 测试样本实际输出 Y1 = full(compet(Y1)); % 竞争输出 Y2 = full(compet(Y2)); %--------------------------------------------------- % 结果统计 Result = ~sum(abs(T1-Y1)) % 正确分类显示为1 Percent1 = sum(Result)/length(Result) % 训练样本正确分类率 Result = ~sum(abs(T2-Y2)) % 正确分类显示为1 Percent2 = sum(Result)/length(Result) % 测试样本正确分类率