Home
->  6月開催 その他セミナー  7月開催 その他セミナー 

"説明できるAI"の作り方と業務への導入、活用の方法

6月開催 その他セミナー  更新日:2019年5月 8日
 セミナー番号【907508】7/18 講師3名
★AIの意思決定をどう検証するか! 想定外の動作をどう抑止すれば良いか!
★判断の根拠を説明可能なAIを業務に導入し、活用する方法とは!!

"説明できるAI"の作り方と業務への導入、活用の方法


~AIのブラックボックス問題解析法、ホワイトボックスの精度向上手法など~

■ 講師 1. (国研)科学技術振興機構(JST) 研究開発戦略センター(CRDS) フェロー 福島 俊一 氏

2. (株)日立ソリューションズ・テクノロジー 第3組込ソリューション設計部 部長 猪貝 光祥 氏
3. 横浜国立大学 大学院環境情報研究院 教授 長尾 智晴 氏
■ 開催要領
日 時 :
2019年7月18日(木) 10:30~17:00

会 場 : [東京・五反田]技術情報協会 8F セミナールーム
聴講料 : 1名につき55,000円(消費税抜き、昼食、資料付) 
〔1社2名以上同時申込の場合1名につき50,000円(税抜)〕


プログラム

<10:30~12:00>


【第1部】AIシステムの説明責任に関わる最新動向

(国研)科学技術振興機構(JST) 研究開発戦略センター(CRDS) フェロー 福島 俊一 氏


【講演趣旨】
人工知能(AI)技術が様々な応用システムに組み込まれ、社会に広がりつつある。それに つれて、AI技術の性能面だけでなく、説明責任・公平性・安全性・信頼性等の品質面が AIシステムに対する社会的要請として強まってきた。AI社会原則が国・世界レベルのガイ ドラインとして議論・策定され、米国国防高等研究計画局(DARPA)で関連技術への投資 が強化される等、産業界だけでなく学術界や政策面でも取り組みが活発化している。本 講演では、このような国内外の動向を概観し、具体的な取り組み事例も含めて紹介する。 なお、説明責任に加えて、公平性・安全性・信頼性等、AIシステムの品質面をやや広め に概観する。
【講演項目】

1.問題意識
  1-1.ブラックボックス問題(説明責任)
  1-2.差別・偏見、バイアス問題(公平性)
  1-3.Adversarial Examples、脆弱性問題(頑健性)
  1-4.テスト手法、品質保証問題(安全性、信頼性)
  1-5.システム開発のパラダイム転換

2.国内外動向
  2-1.研究コミュニティの動向
  2-2.産業界の動向
  2-3.AI社会原則、ガイドラインの動向
  2-4.政策動向
  2-5.国際標準化動向

3.取り組み事例
  3-1.説明責任のための技術開発例
  3-2.公平性のための技術開発例
  3-3.頑健性テスト、品質保証に対する技術開発例 等

【質疑応答・名刺交換】
-------------------------------------------------------------------------------------

<12:45~14:45>


【第2部】日立ソリューションズ・テクノロジーにおけるAIのブラックボックスを解析する方法

(株)日立ソリューションズ・テクノロジー 第3組込ソリューション設計部 部長 猪貝 光祥 氏

【講演趣旨】
Deep Learning(DL)を使った人工知能システムは自動運転, Roboticsなど様々な分 野で実用化されつつある。一方でAIの意思決定をどう検証するか、想定外の動作をどう 抑止するか、といった品質保証上の課題も議論されている。本セミナーではDLによる画 像認識に対する、このBlack-Box問題を解析する技術を実例を挙げながら解説する。

【講演項目】

1.AIの品質保証に関わる諸課題

2.AIの信頼性とは

3.AIの判断根拠

4.Black-Box問題の解明技術

5.画像認識における認識精度と特徴量の寄与度との関係

6.実例に見る誤認識の解明

7.学習データの質的向上技術

【質疑応答・名刺交換】

-------------------------------------------------------------------------------------

<15:00~17:00>


【第3部】"説明できるAI"の作り方と業務への導入、活用の仕方

横浜国立大学 大学院環境情報研究院 教授 長尾 智晴 氏

【講演趣旨】
深層学習の処理が人に説明できないことが業務への機械学習の 導入を妨げています.
ここでは「説明できるAI」を作るための2つの方法(①ブラックボックスの見える化,②ホワイトボ ックスの精度向上)について平易に解説します.

【講演項目】
1.説明できるAIについて
  1-1. 深層学習の特徴と問題点
  1-2. 説明できるAIの構成方法

2.ブラックボックス(深層学習など)を説明する方法
  2-1. 学習済みの深層回路の可視化手法 ・中間層・ヒートマップ・Grad-CAMなど
  2-2. 入出力の関係性を調べる方法 ・出力の予測・Attention・LIME など
  2-3.深層回路を小さな回路に圧縮する方法 ・回路規模を圧縮して実装し易くする各種の手法 など.
  2-4.原理が分かり易い深層回路を作る方法 ・GCM・EGCM・深層零平均正規化相互相関ネットなど
  2-5.他の知識を利用・転用する深層学習法 ・転移学習・蒸留・浸透学習法(PLM) など

3.ホワイトボックス(決定木など)の精度向上手法
  3-1.単位処理のモジュール化による構造の最適化 ・進化的画像処理・認識など
  3-2.特徴量の最適化法 ・特徴量最適化・ACSYS・SIFTERなど
  3-3.小規模な回路による高度な処理の実現方法 ・進化的セル型回路網・進化型神経回路網
  3-4.処理プロセスが分かり易い認識器を作る方法 ・進化的条件判断ネットワークEDENなど
  3-5.処理プロセスを言葉で説明する方法 ・決定木やEDENの処理を自然言語で表す手法など

4.業務へのAI導入について
  4-1.AI導入時の基本8箇条
  4-2.AI導入を成功させるコツとは?

【質疑応答・名刺交換】