- はじめに
- 過去問っぽい問題集(仮)
- その他のAI関連記事
- G検定2020#2について
- G検定2020#3について
- G検定を受けてみた感想
- G検定(JDLA ディープラーニング ジェネラリスト検定)とは何か?
- G検定の過去も含めた合格率と難易度
- G検定は文系でも合格可能か?
- G検定を受けるモチベーション
- G検定対策前の私のスペック
- G検定対策の学習時間
- G検定対策として学習に使用した本(テキスト、問題集、時事)
- 学習のコツ(出題者側の思考)
- 模試によるG検定対策 その1
- 模試によるG検定対策その2
- 模試によるG検定対策その3
- 模試によるG検定対策その4
- 無料対策講座によるG検定対策
- G検定対策としてのその他の活動
- 人工知能(AI)とは
- 人工知能をめぐる動向
- 人工知能分野の問題
- 機械学習の具体的手法
- ディープラーニングの概要
- ディープラーニングの手法
- ディープラーニングの研究分野
- ディープラーニングの応用に向けて
- ディープラーニングの基礎数学
- その他
- G検定 2020#3で出てきたやや特殊な問題
- まとめ
はじめに
2020年3月14日に実施された日本ディープラーニング協会ジェネラリスト検定(通称:G検定)に無事合格。
よって、どのように勉強したのかとか感想を記載する。
さらに実際の出題数、難易度等をシラバス単位で解説。
シラバス単位の出題数は、試験当日に走り書きした雑なメモから思い出しながら書き出したので、おおよその値となる。
今後のG検定受験者の役に立てれば幸い。
2020#2,#3の情報を随時追記する。
過去問っぽい問題集(仮)
勝手に過去問っぽい問題集作成中。実際の問題よりかは難易度低め。
※ 問題の種類は法規/近年の動向にかなり寄せてる。普通の問題を解きたい方は既存お問題集や模試サイトをやった方が良い。実際のG検定を受けた際に時事問題、法規問題に直面した際にショックを受ける方が多いようなので、そのショックをいくらか軽減する目的で設置。
公式テキストや問題集に載ってないような文言が出てくるが、AI白書やarXiv等の文献で出てくるような言い回しを採用しているため。
G検定で求めれるジェネラリストとしては、割と必要と判断しても良い表現だと思う。
(G検定問題文も全てではないが、4割くらいはそんな感じ)
※ 現在200問程放り込んでる。(新しいネタが見つかり次第随時追加中)
AI白書。(用語検索を考えるとkindle版の方が良いかも)
arXivに上がっているような論文を読む際は、
- Introduction(導入文)
- Related Work(関連研究)
のような章がある。
特にRelated Work(関連研究)は過去の経緯などが記載されており、その下りがG検定等の問題の表現に近いことがある。
私の所感だが、どうもG検定で求めているスキルのラインはarXivの論文がそこそこ読めるあたりに引いているように感じる。
その他のAI関連記事
LSTMを使用した日経平均株価の予測の記事もかいてるので、興味ある方はこちらからどうぞ。
G検定2020#2について
本記事を「見ておいてよかった。」「先にこの記事を見つけていれば。」等のコメントを頂いていることから、2020#2に対しても一定の効果はあったもの思われる。
G検定2020#3について
#1,#2と同様に法規、近年の動向に難易度がよっているのは同様。
G検定を受けてみた感想
まずは大まかな感想。
- ネット上の情報から感じた難易度よりも難しかった。
- 一応、年々難易度が上がっているという情報もあったので過去問、問題集だけでは対応できないとは思っていた。
- 公式テキスト、問題集等から得られる基礎的な知識だけでなく、現時点の新しい知識も求められる
- 強化学習あたりがテキスト、問題集ではあまり語られていない反面、出題数が多い印象
- 自然言語処理関連も予想よりも多い印象
- 2019年に流行ったBERT/transformerの影響?
- 法規関連が最初の方に大量に出てきて心を折れかけさせた
- 個人情報保護、匿名加工、自動運転。著作権、ドローン飛行規制、道路交通法改正(2020#2ではドローン関連問題は出なかったもよう。)
(2020#3ではXAI、営業秘密に関連する問題が増加)
- 個人情報保護、匿名加工、自動運転。著作権、ドローン飛行規制、道路交通法改正(2020#2ではドローン関連問題は出なかったもよう。)
- ちょっと意外な問題
- 三平方(ピタゴラス)の定理が出た。
- 確かにベクトルのノルムを算出する時には使うのでAIと無関係ということは無い。
- 三平方(ピタゴラス)の定理が出た。
- 出題数は214問/120分
- 1問あたり33.6秒程度、10問あたり5.6分、50問あたり28分
- よって、50問を20分で解くくらいのペース配分にして、分からないものは一旦切り捨てて後でググる
- 2020#2は200問/120分と問題数が減った。
- その分、難易度が上がったと思われる。
- 2020#3は191問/120分
- 1問あたり33.6秒程度、10問あたり5.6分、50問あたり28分
- 問題集を解きまくって反射的に答えを出すと言いう過学習方式は通用しない。
- 意図的に読んで頭にイメージを浮かべないと何を言っているのかわからない問題文になっている。
- 対策
- 既知の問題文を自分でドロップアウトさせて量産。それを持って自分の脳の汎化性能を引き上げておくと良い。
- Google検索用にマルチモニタ推奨。
- 可能であれば3画面で臨めると吉。
G検定(JDLA ディープラーニング ジェネラリスト検定)とは何か?
G検定(JDLA ディープラーニング ジェネラリスト検定)試験概要
私が説明するより、「日本ディープラーニング協会」のwebサイトを直接参照した方が良いでしょう。
一言でいうならば、
ディープラーニングの基礎知識を有し、適切な活用方針を決定して、事業活用する能力や知識を有しているかを検定する。
というもの。
- 基礎知識を有する。
- 活動方針を決定できる。
- 事業活用できる。
こういった人材を指してジェネラリトと呼ぶ。
G検定の過去も含めた合格率と難易度
開催日 | 申込者数 | 受験者数 | 合格者数 | 合格率 |
---|---|---|---|---|
2017 | 1,500 | 1,448 | 823 | 56.87% |
2018#1 | 2,047 | 1,988 | 1,136 | 57.14% |
2018#2 | 2,745 | 2,680 | 1,740 | 64.93% |
2019#1 | 3,541 | 3,436 | 2,500 | 72.76% |
2019#2 | 5,387 | 5.143 | 3.672 | 71.40% |
これに対して、2020#1は以下になる。
開催日 | 申込者数 | 受験者数 | 合格者数 | 合格率 |
---|---|---|---|---|
2020#1 | ? | 6,298 | 4,198 | 66.66% |
合格率は見事に6が並んで・・・。(獣の数字?)
2019年が70%オーバーに対して、2020#1は66.66%と、やや難易度が高めと言える数値になっている。
3人の内2人が合格ということで、普通であれば難易度低めということになるが、受験者としては結構対策している人が多い気がするので、結構そぎ落とされてる印象にはなる。
合格点は公表されていないので、恐らくは合格率の調整が入っていると思われる。
よって、如何に平均より上に行くかが重要と考えて良い。
2020#2も似たような調整になると思う。なった。
開催日 | 申込者数 | 受験者数 | 合格者数 | 合格率 |
---|---|---|---|---|
2020#2 | ? | 12,552 | 8,656 | 68.96% |
どうも200問解き終えなくても合格ラインには乗るようなので、テキストベースで落としてはいけない問題を落とさず、そこからの深堀&拡大が出来ていれば基本的にはOKと思われる。
開催日 | 申込者数 | 受験者数 | 合格者数 | 合格率 |
---|---|---|---|---|
2020#3 | ? | 7,250 | 4,318 | 59.56% |
ここにきて、合格率が60%を切ってきた。
2020#2の合格発表後のTwitter上で
「ほとんど解けてないのに合格した。意味あるのかこの検定」
のような追及が多数有ったため、その影響なのか?
G検定は文系でも合格可能か?
良く聞かれる質問ではある。
結論としては文系、理系はあまり関係ないので十分可能。
理由は以下。
- 数学的解釈が必要な項目は少ない。
- 2,3問あるかないか
- どちらかというと歴史や法規に紐づく問題が多い。
言い回しが理系的なだけであって、
実際の内容は歴史、法規の性質が強いため、
実は文系の方が向いているような気がする。
私個人としては
「文系でも受かるG検定」というよりも、
「理系でも受かるG検定」という書籍の方が必要なのでは?
と思ったりする。
※ 当然インパクトの無いタイトルなので売れないでしょうが。
G検定を受けるモチベーション
人によっては目的が無いと頑張れない人いるかと思う。
私もその一人であり、G検定を受ける上のモチベーションありき。
ちなみに私の「G検定を受けるモチベーション」は、
AI関連の案件受ける際のコミュニケーションに必要な知識の獲得。
昨今のAIブームに乗っかり、個人的に既存のアルゴリズムを試したりはしてるが、
全体像を把握しているわけではない。
これが災いしてか、ちょっとしたAI、機械学習の用語が拾えないということもシバシバ。
そもそも言葉を知らないとか、成り立ちを知らないというのが、
結構案件獲得に対して印象を悪くしていた。
これを払拭するために、G検定を受験することを決めた。
つまり、「AI関連知識の全体像と基礎を押さえたい」という部分になる。
これ以外にも様々なモチベーションは考えられる。
- AI関連技術者になるための基礎知識を身に着けたい。
- AI関連事業を興したい。
- 自社の作業効率化にAIを導入したい。
etc
G検定対策前の私のスペック
- 趣味でDNNを少しかじってる。
- 「ディープラーニングの概要」の8割程度の知識
- 「ディープラーニングの手法」の5割程度の知識
- 「ディープラーニングの研究分野」の4割程度の知識
- 上記の絡んでニューラルネットワーク以外の機械学習も知識レベルで少し保有
- 「機械学習の具体的手法」の3割程度の知識
- 微分積分、ベクトル、行列に対しては特に抵抗感は無い。
つまり、素の状態では214問中60問程度で正答率28%程度だったと言える。
これが知識ゼロからスタートする方と比較した際の私のアドバンテージとなる。
微分積分、ベクトル、行列に関して。
問題としてはそれぞれ1問出るか出ないか程度なので、この部分ではアドバンテージはなし。
G検定対策の学習時間
G検定に向けての対策は試験日から2週間前から開始。
一日の学習時間は通勤時間の学習も合わせて2時間程度。
つまり、28時間の学習時間となる。
しかし、正直28時間では不足だったと認識している。
下で紹介している白本、黒本、AI白書をじっくりやって1周しかできず、正直言って知識として定着したかはあやしい。
よって、私と同様に一日に2時間程度しか学習時間を割り当てられない方は試験日1ヶ月前から学習開始して白本、黒本、AI白書を2周した方が良い。
G検定対策として学習に使用した本(テキスト、問題集、時事)
いわゆる白本と黒本。加えてAI白書。
私の場合は白本側でガッチリと全体像を捕まえて黒本とAI白書で随時補強していく方針で実施。
正直、白本だけでは今回のG検定の問題の半分も解けない。
黒本加えれば半分は解けそう。
AI白書の補強分でやっと6割越えだったかと。
ディープラーニングG検定公式テキスト(通称白本)
徹底攻略 ディープラーニングG検定 ジェネラリスト問題集(通称黒本)
AI白書
※ 試験中に検索することを想定するとKindle版の方が良いかも。
あと、松尾 豊 先生の「人工知能は人間を超えるか ディープラーニングの先にあるもの」は読んでおいた方が良い。
白本と被る内容は多いが、シナリオとして認識する文系脳の方は相性が良いかと。
短時間でさらっと勘所を捕まえたい場合ははマンガで読むのもあり。
私は持ってないが、AIカルタで学習というのも、取っ掛かりとしては面白いかもしれない。
(G検定頻出ワードを多数収録。JDLA推薦商品。って書いてあった。)
あと、たまたま本屋で立ち読みした本だが、以下などは比較的昨今のG検定の内容を踏襲しているように見受けられた。
BERT/transformer、XAI(Explainable AI:説明可能なAI)についても触れらていたので、今後のG検定の対策としては有効と思われる。
学習のコツ(出題者側の思考)
出題者側の思考を考えてみるのが手っ取り早い。
出題者に課せられた重大ミッションはおおよそ以下になる。
- 合格点はおおよそ〷点にしたい。(たとえば60点)
- 勉強していない受験者を即行で切りたい。
- 上記に伴い、合否を二極化(または三極化)したい。
この場合、60点を取らせるためには、過去の問題や巷に流れている問題集から出題用の問題を持ってくる。
つまり、「この問題解いた事ある!ラッキー」ではなく、
「ヤバイ。出題者に解かされている!この問題は絶対落とせない」と考えるべきとなる。
これがほとんど解けない場合は、不合格確定。
次に二極化についてだが、
勉強してきた受験者の傾向も2つに分かれる。
- 問題集をベースに慣らしてきた。(たぶん、8割の人間はこっち)
- 情報を構造化して知識として定着してきた。(のこり2割はこっち)
G検定の場合、合格率66%を狙っているようなので、
前者の半分くらいを合格させる難易度に設定してくる。
つまり、問題集等で語られてはいるが、ちょっと論点、視点をずらす問題を散りばめてくることが予想できる。
これも半分は解けるようにしておかないと少し危険域に入る。
このような受験者の分布を散らしたいという出題者側の思考には注意しておいた方が良い。
そもそもとして、後者の「知識として定着」であれば全く問題は無い。
模試によるG検定対策 その1
Study-AIさんの無料β版の模試が有名。
※ 要ユーザ登録(無料)
一時期は、ここの問題がそのまま出るような記事もあった。
2019#2か#3か、どのタイミングからかはわからないが、
現在に於いては、さすがに「そのまま出題」ということは無くなった。
上記の学習のコツでも書いたが、
出題者の思考を考えると、受験者がこの模試を受けてきているのは予想に固い。
よって、ちょっと観点をずらした問題を出さざるを得ない状況になっていると推測される。
あと、無料β版であるため、文句を言える義理は全くないのだが、
選択肢に答えがない、選択肢が間違っている問題が散見される。
例えば、以下の問題
(エ)に最もよくあてはまる選択肢を 1 つ選べ.
ニューラルネットワークで用いられる活性化関数について扱う.出力層の活性化関数には,回帰では(ア)が,多クラス分類では(イ)が一般的に利用されてきた.また中間層の活性化関数として,従来は(ウ)などが一般的に利用されてきた.しかし,これらの活性化関数を利用すると勾配消失問題が起きやすいという問題があったため,近年は,入力が 0 を超えていれば入力をそのまま出力に渡し,0 未満であれば出力を 0 とする(エ)や複数の線形関数の中での最大値を利用する(オ)などが利用されている.
選択肢
1.動経基底関数
2.ソフトマックス関数
3.Maxout
4.ステップ関数
Study-AIさんの回答としては4となっており、明らかに回答側が間違っている。
(エ)に入るのはReLUなのだが、
正しい選択肢は以下のどれか。
・ReLU(Rectified Linear Unit)
・正規化線形関数
・整流線形関数
・ランプ関数
恐らくは「ランプ関数」が本来の選択肢になっていたところを
間違って「ステップ関数」としてしまったと思われる。
※ランプ関数、ステップ関数は制御に於いての応答性評価によく使われる関数名称。
この問題は、本来であれば良問で、
ReLUの別名を把握しているかを問うているもの。
しかし、ちょっとしたケアレスミスで悪問と化して、受験者を毎回悩ましているようだ。
模試によるG検定対策その2
最近もう一件、無料模試が出てきていた。
※ 要ユーザ登録(無料)

私の方で一通り、解いてみたが、StudyAIさんよりは最近の動向に沿っていはいる。
ただ、これで網羅しているレベルではないので、「繰り返し解いて慣らす」という方法はお勧めできない。
Study-AIさんの模試と併用して、自分の苦手領域の把握に利用した方が良いだろう。
模試によるG検定対策その3
G検定特化の模試ではないが、一応紹介。
MATLABで有名なMathworks社の機械学習10問クイズ。
https://explore.mathworks.com/jp-machine-learning-knowledge-quiz

模試によるG検定対策その4
上の方でも紹介したが、法規/時事問題特化問題集。
問題自体は、arXiv等で見かけた文献をベースに、抄読会を実施した際の近年の法規/目玉AIモデルの話を問題文形式にしてるので割と最新情報はキープできていると思う。
無料対策講座によるG検定対策
「資格試験のオンライン対策サイト【資格スクエア】」さんの講座に、まさにそのままのG検定対策講座というのがある。
オンラインの無料体験講義があるので、ここで一回サラッと概念を掴んでしまうというのも一手。
何事も取っ掛かりは重要で、取っ掛かりさえあれば、後は結構自力で学習サイクルを回せると思う。
取っ掛かりが欲しい方は以下サイト参照。

G検定対策としてのその他の活動
あとはインプットだけでなく、アウトプットの方も意識。
簡単に言うと、調べた内容をノートに纏めるなど実施。
本サイトでも掲載しているが、以下のように情報をまとめる作業をしている。


以降、シラバスに則って出題数、難易度、情報量、対策方法等を説明。
人工知能(AI)とは
項目 | レベル |
---|---|
検定出題数 | 極少(1問) |
検定難易度 | 低 |
Web情報量 | 少 |
過去問、問題集だけで対応可? | OK |
さらっと流してOKな部分。

人工知能をめぐる動向
探索・推論、知識表現、機械学習、深層学習
項目 | レベル |
---|---|
検定出題数 | 中(19問) |
検定難易度 | 低 |
Web情報量 | 多 |
過去問、問題集だけで対応可? | おおよそOK |
情報量が多い割には出題数も少な目で難易度も低い。
逆説的に言うと落としてはいけない部分と言える。

探索木の構造にすることで、コンピュータが処理できる形式にすることが重要。
仕組みが分かると知性は感じられない。と感じるのがAI効果。

「積み木の世界」を例とされることが多い。
- STRIPS:ストリップス
- SHRDLU:シュルドュル

これも基本は探索木になる。
迷路の探索木に似ているが、「行動」と「結果」の連続した探索木となるが、局面が複雑化するタイプになると、それだけ膨大なツリーとなる。

推論、探索の時代は、基本、「初期状態」「行動」「結果」が明確であることをベースにしている。
後期に入るとモンテカルロ法の方な確率論が導入され始める。

第2次AIブーム初期は単純なパターンマッチで知識を表現しようとした。
しかし、その知識の獲得や管理に課題が出てきた。
それを解決するために意味ネットワークやオントロジーの研究が注目される。

オントロジーにより、意味ネットワークが構築され、人の知識に近いものが出来てきた。
第1次AIブームと比べると現実世界に対して影響を持ち始めた時期となる。

ディープラーニングの元となるニューラルネットワーク自体は第1次AIブーム時から存在していた。
バックプロパゲーションなどの学習方法、コンピュータの処理能力、学習するデータ量により一気に進展し、ブレイクスルーへ。
人工知能分野の問題
トイプロブレム、フレーム問題、弱いAI、強いAI、身体性、シンボルグラウンディング問題、特徴量設計、チューリングテスト、シンギュラリティ
項目 | レベル |
---|---|
検定出題数 | 少(4問) |
検定難易度 | 低 |
Web情報量 | 少 |
過去問、問題集だけで対応可? | おおよそOK |
基本的にはお約束的な問題が出るのみ。
テキスト、問題集をやっていれば問題ない。

知能、知性に至るのは多くの課題がある。
ゴールを「便利な道具」とするか「人間のパートナー」とするかでも大きく変わる。

解決していない問題はあるが、ディープラーニングにより解決した問題も多い。
シンギュラリティ(技術的特異点)はもうすぐ。
機械学習の具体的手法
代表的な手法、データの扱い、応用
項目 | レベル |
---|---|
検定出題数 | 極多(54問) |
検定難易度 | 高 |
Web情報量 | 多 |
過去問、問題集だけで対応可? | 不足 |
出題数は最多の部分となる。
ただし、勉強し易い部分ともいえるので、ここで頑張って点を稼ぐ必要がある。

機械学習でも目的別にカテゴリ分けができる。(教師あり:回帰、分類、教師なし:クラスタリング)
ディープラーニングが流行りの世の中ではあるが、可能な限りシンプルな手法による解析が重要な場合を想定して、今回の手法を頭の片隅にでも置いておいた方が良い。

学習する際に学習結果を評価する必要がある。
単に正解率が高いが優秀とは限らず、間違い検知率が高いことが重要な場合もある。
ディープラーニングの概要
ニューラルネットワークとディープラーニング、既存のニューラルネットワークにおける問題、ディープラーニングのアプローチ、CPU と GPU
ディープラーニングにおけるデータ量
項目 | レベル |
---|---|
検定出題数 | 少(7問) |
検定難易度 | 低 |
Web情報量 | 少 |
過去問、問題集だけで対応可? | おおよそOK |
ここは流してOK。

- ニューラルネットワークを元にさらに隠れ層を増やしたディープニューラルネットワークが登場。
- しかし、隠れ層を増やしたことで勾配喪失や計算コストに課題が発生。
- 計算コストはCPUやGPUの発展に助けられた部分はある。
ディープラーニングの手法
活性化関数、学習率の最適化、更なるテクニック、CNN、RNN
深層強化学習、深層生成モデル
項目 | レベル |
---|---|
検定出題数 | 極多(46問) |
検定難易度 | 高 |
Web情報量 | 多 |
過去問、問題集だけで対応可? | 不足 |
「機械学習の具体的手法」に続いて多い部分。
G検定のメインの部分なので当然と言えば当然。
一番調べやすい部分なので学習はし易い。

- 勾配降下法で楽に誤差関数を0に近づける手法が主流になった。
- 活性化関数のバリエーションを増やすことで勾配を作りやすくした。
- 局所最適解や鞍点に陥らないような学習アルゴリズムが登場。
- さらに精度を高めたり、精度が上がることによるオーバーフィッティング抑制など手法自体も微調整される状況となった。

- 画像による物体認識は長年の課題の一つであり、それが解決しつつある。
- しかし、それには膨大な学習が必要となるが、公開されているネットワークも多い。
- 公開ネットワークに層を追加しファインチューニングすることで手早く高性能なネットワークが獲得できる。

- 時間の概念は本来であれば、微分積分の領域であるが、ニューラルネットワークでも過去、未来をデータとして持つことで表現可能
- LSTMの考え方が重要で、それらの組み合わせ方でRNNの発展形が出来る。

- 答えのない目的を持たせた強化学習とディープラーニングの組み合わせとして深層強化学習が存在。
- 生成タスクとして、何もないところからデータを生成する深層生成モデルが存在。(画像生成モデル)
ディープラーニングの研究分野
画像認識、自然言語処理、音声処理、ロボティクス (強化学習)、マルチモーダル
項目 | レベル |
---|---|
検定出題数 | 中(38問) |
検定難易度 | 高 |
Web情報量 | 中 |
過去問、問題集だけで対応可? | 大きく不足 |
先の「ディープラーニングの手法」が基礎とするならば、こちらは応用側となる。
若干調べにくく、点に差がつくところ。
2020#2ではU-Netの図解が出たらしい。
U-Net以外にFCN、SegNet、SSD、YOLOなどの構成図は一取り見ておいた方が良いだろう。
年々、急速に発展している部分なので、公式テキスト、問題集では直近3年分に関してはフォローできていない。この点を注意して対策する必要がある。

- 物体を検出することと、物体を認識することは別
- しかし、「物体を認識」する過程で「物体を検出」している可能性もある
- 物体検出は矩形のバンディングボックスと画素単位のセマンティックセグメンテーションに分けられる。
- 双方をくみあわせることでインスタンスセグメンテーションが実現可能

- 自然言語処理の基礎はword2vecことベクトル空間モデル、単語埋め込みモデル
- 発展形のfastText、ELMoはマルチタスク学習が可能
- 画像注釈はCNNとRNNの連携で実現

- やや発展中の領域
- 強化学習はセルフプレイにより、無限に強化される可能性を持っている。
ディープラーニングの応用に向けて
産業への応用、法律、倫理、現行の議論
項目 | レべる |
---|---|
検定出題数 | 多(42問) |
検定難易度 | 極高 |
Web情報量 | 少 |
過去問、問題集だけで対応可? | 激しく不足 |
恐らくは受験者全員を苦しめた大魔境。
テキスト、問題集が完全に無力化される。
Google先生に聞くにしても、適切なキーワードが思い浮かばないこともシバシバ。
この部分のGoogle検索時間を如何に稼ぐかが勝敗を分ける。
2020#2では、ややこの部分の問題数が増えているという情報あり。
70問という話も出ているが、恐らくは50問弱程度の問題数と思われる。
※ 2020#2で、私と同じように受験しながら問題の性質をメモっていた方がいたようで、その方の集計だと、40問弱程度。全体の問題数が減っているので割合としては2020#1と同等。私も2020#1を受けた直後は1/3は法規問題って印象だったが、実際に集計してみると思ったより遥かに少なかった。
2020#1、#2で共通して言えることは、開幕直後に法規問題ラッシュで精神削られるという点。仮に分からなくても、「きっと他の人も分からなくて苦しんでるんだろうな」程度で一旦流してしまった方が良い。ここで精神的に消耗すると後の解かなければならない問題を捌ききれなくなるリスクが上がってしまう。
「道路交通法改正で自動運転レベル3でのスマホ操作を解禁」
「自律型致死兵器システム(LAWS)」
の問題が出たらしい。
無人航空機(ドローン・ラジコン機等)の飛行ルール
は国土交通省のサイトを参照。



プロダクトは作ったら終わりではない。
そこから得た教訓を運用保守や次のプロダクト開発へと循環させていくサイクルが重要。
ディープラーニングの基礎数学
項目 | レベル |
---|---|
検定出題数 | 極少(3問) |
検定難易度 | 少 |
Web情報量 | 少 |
過去問、問題集だけで対応可? | 不足 |
ここは正直スルーでも良いかもしれない。

偏微分、ベクトル、行列、統計、ベイズの定理等を覚えておくと良い。
その他
以下の情報も整理しておく必要がある。
- フレームワーク
- define-by-runタイプ
- PyTorch
- chainer
- Define-and-runタイプ
- TensorFlow
- Caffe
- define-by-runタイプ
- CIFAR
- 一般物体認識のベンチマーク用データセット
- MNIST
- 手書き数字画像データセット
G検定 2020#3で出てきたやや特殊な問題
- EfficientNet
- 既存のネットワークより高速で高精度なネットワーク。
- 今まで成されていなかった解像度・深さ・チャネル数を同時に最適化することによって、高速かつ高精度なネットワークを構築。
- パラメータ探索はグリッドサーチで行う。
- ガウシアンピラミッド・ラプラシアンピラミッド
- 縮小する過程でガウシアンぼかしを入れたものがガウシアンピラミッド、ガウシアンピラミッドに解像度間の差を取ったものがラプラシアンピラミッド。
- ガウシアンピラミッドがローパスフィルタ、ラプラシアンピラミッドがバンドパスフィルタのような特性になる。
- HOG特徴量
- 画像認識における特徴量の1つ。
- 「ピクセル毎の輝度の変化の方向と強さ」を「セル単位でヒストグラム化」した後「ブロック単位で正規化」する。
- 画像からの人体・車両検出には、この特徴量をSVM(Support Vector Machine)で分類する手法がメジャー。
- コサイン類似度
- ベクトル同士のなす角の近さを表現するため、三角関数の普通のコサインの通り、1に近ければ類似しており、0に近ければ似ていないことになる。
- Meta-Learning
- 「少しのデータ・学習ステップの後,すぐに新しいタスクに適応できるモデル」を学習
- MAML(Model-Agnostic Meta-Learning)
- 「(微分可能な)任意の形式のモデル」について,新しいタスクに素早く適応できるようなMeta-Learningの手法
- RNNにおける教師強制(Teacher forcing)
- 訓練の際に”1時刻前”の正解データを現時点の入力として用いる手法を指す。
- とくに自然言語の領域では、教師強制は”翻訳”のモデルなどに適用される。
- RNN Encoder-Decoder
- ソース系列をEncoderと呼ばれるLSTMを用いて固定長のベクトルに変換(Encode)し,Decoderと呼ばれる別のLSTMを用いてターゲット系列に近くなるように系列を生成するモデル。
- 中間層はメモリ的な機能を持ち、Attentionメカニズムと呼ばれる。
- SMOTEアルゴリズム(Synthetic Minority Over-sampling Technique)
- 不均衡データの分類に使用される。
- 少ない方のラベルが付いた各データ点同士を線でつなぎ、その線分上の任意の点をランダムに人工データとして生成。
- 営業秘密(トレードシークレット)
- 不正競争防止法第2条第6項に「この法律において営業秘密とは、秘密として管理されている生産方法、販売方法その他事業活動に有用な技術上又は営業上の情報であって、公然と知られていないものをいう」と定義
- actor-critic法
- TD学習(時間的差分学習: Temporal Difference Learning)の手法の一つ。
- メリット
- 行動選択に最小限の計算量しか必要ない。
- 確率的な行動選択を学習できること。
- ポアソン回帰
- ある現象が一定時間内に起こった回数を数え上げたデータのことをカウントデータ(count data)と呼ぶ。
- 発生頻度と、それに影響する要因との関係を分析する手法のことをカウントデータ分析(analysis of count data)
- ポアソン回帰分析は稀にしか起こらない現象に関するカウントデータを分析するための手法。
- 状態空間モデル
- 時系列データの中に隠れた因果関係を発見し、それをモデル化するもの。
- もともとは物理システムの記述に使われていたもの
- カルマンフィルター
- 観測値から状態を推定するフィルタリング手法。
- 音声認識系のメル尺度
- MFCC(メル周波数ケプストラム係数)
- メル尺度は、音高の知覚的尺度である。メル尺度の差が同じであれば、人間が感じる音高の差が同じになることを意図している
- ベイズ推定
- ベイズ確率の考え方に基づき、観測事象(観測された事実)から、推定したい事柄(それの起因である原因事象)を、確率的な意味で推論する。
- データリーケージ
- 入ってはいけないデータが混入する状態。
まとめ
基礎的なところから、最新情報まで含まれた試験となる。
普段からAI関連の情報収集も並行して実施する必要がある。
取っ掛かりが欲しい人は以下のオンライン無料体験講座がお勧め。

コメント