Halcom 发表于 2018-7-28 22:34:38

17-PSO优化-逼近最小二乘法结果(23个决策变量)

17-PSO优化-逼近最小二乘法结果
百度网盘链接:https://pan.baidu.com/s/1KqoDNIlIXH8_0Jw1j-ghcg
具体链接在halcom.cn论坛,联系人QQ:3283892722
该论坛是一个学习交流平台,我会逐一的和大家分享学习。
欢迎大家录制视频,你可在论坛进行打赏分享。
视频专用播放器:http://halcom.cn/forum.php?mod=viewthread&tid=258&extra=page%3D1\

例如一个庞大的数组,Jj = 120x23, 目标ee = 120x1,则需要求解最小二乘拟合结果x,理论上
x = pinv(Jj)*ee
% x=inv(Jj'*Jj)*Jj'*ee

此时,x是一个23x1的未知数矩阵,如果采用生物智能算法进行计算,那么如何准确的计算这个x呢?
我们知道生物智能算法,例如pso算法,对于未知数个数较少的时候,寻优是比较靠谱的,然后未知数是23个,基本没法准确的寻优了。
(1)不假思索,直接写出适应度函数,进行PSO寻优function y = fun(x)
Jj=[-300.300……0];
ee=;
% Jj*x = ee
% 误差最小
y = sum( abs( Jj*x' - ee ) );然而我们采用2改进的粒子群算法进行计算时,误差y特别大,根本不可接受。那么此时我们该如何做呢?
(2)改进适应度函数求解:function = fun2(x, popmin, popmax)
% 上下限
lb = popmin*ones(length(x), 1);
ub = popmax*ones(length(x), 1);

options = optimoptions( 'fmincon', 'Algorithm', 'sqp', 'Display', 'off' );
= fmincon( @(x)fun(x), x, [],[],[],[], lb, ub, [], options );PS:此方法类比于PSO优化BP神经网络,神经网络通常被优化的为权值和阈值,而且是初始的权值和阈值,那么由神经网络得到的反馈最优权值和阈值可作为第二次迭代的输入;则PSO优化-逼近最小二乘法结果通过fun2函数即可解开谜团。
附上主程序:
% PSO 参数
c1 = 1.4995;
c2 = 1.4995;
Vmin = -1;
Vmax = 1;
maxiter = 10;% 迭代次数
sizepop = 10;% 种群数量
popmin = -1.5;popmax = 2; % x
nvar = 23;   % 23个未知量
%% 初始化种群
for i=1:sizepop
    pop(i,:) = popmin + (popmax-popmin).*rand(1,nvar);
    = fun2( pop(i,:), popmin, popmax );
    V(i,1:nvar) = Vmin + (Vmax-Vmin).*rand(1,nvar);
end
% 记录一组最优值
=min(fitness);
zbest=pop(bestindex,:);   % 全局最佳
gbest=pop;                % 个体最佳
fitnessgbest=fitness;   % 个体最佳适应度值
fitnesszbest=bestfitness; % 全局最佳适应度值
wmax = 0.9;wmin = 0.4;% 权重
%% 迭代寻优
for i=1:maxiter
    disp(['当前迭代次数:', num2str(i)])
    for j=1:sizepop
      % 自适应权重1
%         w = wmin + (wmax-wmin)*(fitnessgbest(j)-min(fitness))/( max(fitness)-min(fitness) );
      % 自适应权重2
%         w = wmin - (wmax-wmin)*(fitnessgbest(j)-min(fitness))/( mean(fitness)-min(fitness) );
      % 自适应权重3
      if fitnessgbest(j)<=mean(fitness)
            w = wmin - (wmax-wmin)*(fitnessgbest(j)-min(fitness))/( mean(fitness)-min(fitness) );
      else
            w = wmax;
      end
      % 速度更新
      V(j,:) = w*V(j,:) + c1*rand*(gbest(j,:) - pop(j,:)) + c2*rand*(zbest - pop(j,:));
      V(j,:) = lb_ub(V(j,:), Vmin, Vmax);
      
      % 个体更新
      pop(j,:) = pop(j,:) + 0.5 * V(j,:);
      pop(j,:) = lb_ub(pop(j,:), popmin, popmax);
      
      % 适应度更新
       = fun2(pop(j,:), popmin, popmax);
      
      % 比较个体间比较
      if fitness(j)<fitnessgbest(j)
            fitnessgbest(j) = fitness(j);
            gbest(j,:) = pop(j,:);
      end
      if fitness(j)<bestfitness
            bestfitness = fitness(j);
            zbest =pop(j,:);
      end
      
    end
   
    fitness_iter(i) = bestfitness;
end









页: [1]
查看完整版本: 17-PSO优化-逼近最小二乘法结果(23个决策变量)