AI

G検定

G検定対策 究極カンペをつくろう#8 データ生成(CycleGAN, DCGAN, Diffusion Model, NeRF, Pix2Pix, 音声生成, 画像生成, GAN, 文章生成)

生成AIは タスク→モデル→学習原理→データ要件→評価→応用 の因果で理解すると全体像が掴めるのである。手法選定は目的(タスク)と制約(データ・計算・権利)から逆算し、GAN/拡散/NeRF/言語モデルを使い分けるべきである。評価は単一指標に依存せず 複数指標+人手評価 を併用し、再現性と法倫理を運用に組み込むべきである。
G検定

G検定対策 究極カンペをつくろう#7 強化学習(マルコフ性、MDP、価値関数、目的関数、探索と行動選択、Q学習、SARSA、方策勾配、Actor-Critic)

理論基盤は マルコフ性 → マルコフ過程 → MRP → MDP → 誘導MRP の階段であり、MDP が中心モデルである。価値は V,Q,A と最適値 V^*,Q^*、目的関数は Jγ,Javg で、γ は未来重視度のノブである。探索と行動選択は ε-greedy/Softmax/UCB/Thompson/OFU を使い分け、実装は TD→SARSA/Q 学習、REINFORCE、Actor-Critic を軸に据えるべきである。
G検定

G検定対策 究極カンペをつくろうバックナンバー

G検定まとめ記事はこちらはじめに結構昔にG検定向けの動画で、「JDLAジェネラリスト検定(G検定)さっくり対策(究極カンペの作り方)カンペを見なくても問題が解ける自分の作り方。」というのを公開しているのだが、これに対しての問い合わせがちょく...
数値計算

数理的なエッセイ集

その他数理関連(MATLAB、Python、Scilab、Julia比較ページ)はこちらはじめになんとなく思いつきで書いたエッセイ集。適当なタイミングで更新エッセイ集ソフトウェア設計における因果関係の明確化条件分岐や状態遷移の数理的な記述並...
数値計算

Skip ConnectionとODE:変化と恒常の構造分離

Neural ODEとの比較:Skip Connectionを連続時間のモデルとして捉えた場合、Neural ODEとの関係をより厳密に整理することで、深層学習と力学系の接続がさらに明確になる可能性がある。他の構造への応用:TransformerにおけるSkip ConnectionやAttention機構など、他の構造に対してもODE的な視点を適用することで、さらなる数理的理解が得られるかもしれない。構造設計へのフィードバック:数理的な視点から得られた知見を、ネットワーク設計やハイパーパラメータの選定に活かすことで、より効率的なモデル構築が可能になる。
数値計算

CNNとFCの融合体:Attention機構が切り開く知能の地形図

その他のエッセイはこちら序論:抽象化のジレンマとAttentionの登場本稿は、自動車業界に従事するエンジニアの視点から、AI技術の中でも特に注目されているAttention機構について、その構造的・機能的意義を探るものである。筆者自身はA...
G検定

G検定対策 究極カンペをつくろう#6 深層強化学習(強化学習の基本構造、価値ベースアルゴリズム、方策勾配アルゴリズム、分散・統合型アルゴリズム、補助・拡張技術、学習設定と環境構築、応用事例)

強化学習は「状態・行動・報酬・環境・エージェント」の基本構造を中心に、補助技術と連携して進化してきた。DQNやPPOを軸に、価値ベース・方策勾配・分散型アルゴリズムが技術的に発展し、応用事例へとつながっている。因果関係図を活用することで、技術のつながりと応用先が体系的に理解でき、G検定対策にも有効である。
G検定

G検定対策 究極カンペをつくろう#5 音声処理(音声信号のデジタル化・符号化、音響特徴量の抽出、音声の言語的・音韻的特徴、音声処理モデル、音声処理タスクの種類と応用)

音声処理は「AD変換 → PCM → FFT → MFCC → 音素 → モデル → 応用」という因果関係で構成されている。音素を中心に、HMMによる音声認識、WaveNetによる音声合成が展開される。MFCCは話者識別や感情分析にも応用され、音声処理の幅広い可能性を支えている。
G検定

G検定対策 究極カンペをつくろう#4 Attention(Transformer構成要素、モデルアーキテクチャの系譜、 Attention基本概念、自己注目と多視点処理、Attention計算構造)

Seq2SeqからTransformerへの進化により、自然言語処理は理解系(BERT)と生成系(GPT)に分岐した。AttentionはSelf・Multi-Head・Encoder-Decoder型に分類され、Query・Key・Valueによる計算構造が中核を成す。位置エンコーディングや残差接続などの補助構成要素が、Transformerの性能と安定性を支えている。
G検定

G検定対策 究極カンペをつくろう#3 自然言語処理(基盤技術、テキスト表現、モデルアーキテクチャ、言語モデル、LLM、評価ベンチマーク、応用タスク)

自然言語処理は、単語の分割から意味理解・文生成・応用まで、因果関係に基づいて技術が連続的に発展している。基盤技術・テキスト表現・モデルアーキテクチャ・言語モデル・LLM・応用タスクの各領域が相互に関連している。技術の背景や目的を理解することで、単なる用語暗記ではなく、体系的な理解が可能となる。