本講義では高信頼人工知能に関するやや発展的な内容について学びます. 経験損失最小化の枠組みから機械学習を統一的に捉え直し、機械学習の汎化能力について議論します。その後、深層学習の動作原理を学び、深層学習の判断や意思決定が信頼されるために必要な要件と、それを実現するための理論と技術を学びます。具体的には、説明可能AI、データプライバシの保護、AIの公平性、AIセキュリティについて学びます。本講義の目的は,1)機械学習と深層学習の原理と仕組みに関する知識を習得し,2)機械学習と深層学習が人間からの信頼を得るために必要な技術的仕組みを理解することである.
本講義を履修することによって,以下の数理的知識と応用技術を習得させる.
1) 機械学習技術
2) 高信頼人工知能技術
✔ 該当する | 実務経験と講義内容との関連(又は実践的教育内容) |
---|---|
民間企業におけるデータサイエンス/AIに関する業務経験 |
経験損失最小化、統計的学習理論、深層学習、説明可能AI、データプライバシ、公平性、AIセキュリティ
✔ 専門力 | 教養力 | コミュニケーション力 | 展開力(探究力又は設定力) | 展開力(実践力又は解決力) |
講義はスライドを使った講義と演習の併用によって進める
授業計画 | 課題 | |
---|---|---|
第1回 | 高信頼AI概論 | 講義の目的と高信頼AIの概要 |
第2回 | 経験損失最小化1 | 教師あり学習と正則化の枠組みの理解 |
第3回 | 経験損失最小化2 | 経験損失最小化の枠組みの理解 |
第4回 | 統計的学習理論1 | 予測損失と経験損失の関係の理解 |
第5回 | 統計的学習理論2 | カーネルの理論 |
第6回 | 深層識別モデル | ニューラルネットワークと畳み込みニューラルネットワークの仕組み |
第7回 | 深層生成モデル | 生成モデル、特に変分オートエンコーダーHeyの仕組み |
第8回 | 説明可能AI | 様々な説明可能AIの仕組みの理解 |
第9回 | データプライバシ1: 差分プライバシー | データプライバシ入門および統計データのプライバシ保護理論 |
第10回 | データプライバシ2: 秘密計算 | 秘密計算による計算のプライバシ保護 |
第11回 | AI公平性 | AIによる意思決定において差別が発生する原因の理解と公平なAIの達成 |
第12回 | AIセキュリティ1: 敵対的サンプル | AIの予測時に対する攻撃とその防御 |
第13回 | AIセキュリティ2: ポイズニング | AIの訓練時に対する攻撃とその防御 |
第14回 | AIセキュリティ3: 生成モデルのセキュリティ | 生成モデル/基盤モデルにおけるセキュリティ上の課題 |
学修効果を上げるため,教科書や配布資料等の該当箇所を参照し,「毎授業」授業内容に関する 予習と復習(課題含む)をそれぞれ概ね100分を目安に行うこと。
スライドにて提供
統計的学習理論 (機械学習プロフェッショナルシリーズ), 金森敬文, 講談社
深層学習 (機械学習プロフェッショナルシリーズ), 岡谷貴之, 講談社
データ解析におけるプライバシー保護 (機械学習プロフェッショナルシリーズ), 佐久間淳, 講談社
期末レポートによる評価
ある程度復習しながら進めますが、大学学部レベルの初等的な線形代数、解析学、確率論、統計学の履修経験が必要になります。