MATLAB,Python,Scilab,Julia比較 第4章 その10【形式ニューロン⑧】

MATLAB,Python,Scilab,Julia比較 第4章 その10【形式ニューロン⑧】 数値計算
MATLAB,Python,Scilab,Julia比較 第4章 その10【形式ニューロン⑧】

バックナンバーはこちら。
https://www.simulationroom999.com/blog/compare-matlabpythonscilabjulia4-backnumber/

はじめに

形式ニューロン且つ総当たり法によるパラメータ特定のプログラム化
今回はMATLABで実現。

登場人物

博識フクロウのフクさん

指差しフクロウ

イラストACにて公開の「kino_k」さんのイラストを使用しています。
https://www.ac-illust.com/main/profile.php?id=iKciwKA9&area=1

エンジニア歴8年の太郎くん

技術者太郎

イラストACにて公開の「しのみ」さんのイラストを使用しています。
https://www.ac-illust.com/main/profile.php?id=uCKphAW2&area=1

【再掲】処理フロー

太郎くん
太郎くん

今回から「形式ニューロン且つ総当たり法によるパラメータ特定のプログラム化」だね。
まずは処理フローを再掲。

  • 入力データセットの定義
  • 出力データセットの定義
  • パラメータ変数の定義(重み、バイアス)
  • 学習率定義
  • 重みとバイアスの総当たり計算(ループ)
    • 重みとバイアスを使用して予測値を算出
    • 損失の計算
    • 損失の更新
    • 最も損失が小さいパラメータの記憶
  • 学習結果の表示
  • 出力結果の確認
フクさん
フクさん

これをMATLABで実現する。

MATLABコード

フクさん
フクさん

MATLABコードは以下。

heaviside.m

function y = heaviside(x)
    y = double(x >= 0);
end
% データセットの入力
X = [0, 0; 0, 1; 1, 0; 1, 1];
% データセットの出力
Y = [0; 0; 0; 1];

% パラメータの初期値
W = zeros(2, 1); % 重み
b = 0; % バイアス
num_epochs = 10000; % 学習のエポック数
learning_rate = 0.1; % 学習率
min_loss = realmax;
learning_range = 4;
n=length(Y)

% 重みの総当たり計算
for w1 = -learning_range:learning_rate:learning_range
    for w2 = -learning_range:learning_rate:learning_range
        for b = -learning_range:learning_rate:learning_range
            % フォワードプロパゲーション
            Z = X * [w1; w2] + b; % 重みとバイアスを使用して予測値を計算
            A=heaviside(Z); % ヘヴィサイド活性化関数を適用

            % 損失の計算
            loss = 1/n * sum((A - Y).^2); % 平均二乗誤差

            % 最小損失の更新
            if loss < min_loss
                min_loss = loss;
                best_w1 = w1;
                best_w2 = w2;
                best_b = b;
            end
        end
    end
    % ログの表示
    fprintf('loss: %f\n', min_loss);
    fprintf('weight: w1 = %f, w2 = %f\n', best_w1, best_w2);
    fprintf('bias: b = %f\n', best_b);
end

% 最小損失の重みを更新
W = [best_w1; best_w2];
b = best_b;

% 学習結果の表示
fprintf('learning completed\n');
fprintf('weight: w1 = %f, w2 = %f\n', W(1), W(2));
fprintf('bias: b = %f\n', b);

% 出力結果確認
fprintf("X=")
disp(X)
fprintf("hatY=")
disp(heaviside(X*[W(1);W(2)]+b))

figure;
hold on;
scatter(X(Y == 0, 1), X(Y == 0, 2), 'filled', 'MarkerFaceColor', 'r');
scatter(X(Y == 1, 1), X(Y == 1, 2), 'filled', 'MarkerFaceColor', 'b');
x1 = [min(X(:, 1))-1 max(X(:, 1))+1];
x2 = -(W(1)*x1 + b) / W(2);
plot(x1, x2, 'k', 'LineWidth', 2);
xlim([-0.5 1.5]);
ylim([-0.5 1.5]);
title(sprintf('Loss: %.4f', loss));
legend('Class 0', 'Class 1', 'Decision Boundary');
grid on;
hold off;

処理結果

フクさん
フクさん

処理結果は以下。

形式ニューロンによる分類(MATLAB)、Class0、Class1、Decision Boundary
X=
   0   0
   0   1
   1   0
   1   1
hatY=
   0
   0
   0
   1
W=
   0.1000
   0.1000
b=
-0.2000

考察

太郎くん
太郎くん

入力と出力の結果を見ると、
ちゃんとANDの真理値表になってるね。

太郎くん
太郎くん

でも、決定境界直線の位置が随分ギリギリのところになってるな・・・。

フクさん
フクさん

まぁ、これが形式ニューロンの欠点といえるかな。

太郎くん
太郎くん

形式ニューロンは課題があるから、ほぼ使われないようなこと言ってたもんね。

フクさん
フクさん

とりあえず、今回の結果として問題無いとしよう。

まとめ

フクさん
フクさん

まとめだよ。

  • 形式ニューロンをMATLABで実現。
  • ANDの真理値表と同じ結果が得らえれた。
  • しかし、決定境界線はギリギリな感じ。

バックナンバーはこちら。

コメント

タイトルとURLをコピーしました