Home
->  8月開催 その他セミナー  9月開催 その他セミナー 

説明できるAIの作り方と業務への導入、活用の方法

8月開催 その他セミナー  更新日:2020年7月 2日
 セミナー番号【009502】9/9 講師3名
★なぜ、その結果が出るのか?その結果は本当に信用していいのか?
AIの実用化を阻むブラックボックス問題を解決する新手法を解説!

説明できるAIの作り方と業務への導入、活用の方法


■ 講師
1.
(株)東芝 研究開発センター システム技術ラボラトリー 研究主務 山口 晃広 氏

2. (株)富士通研究所 人工知能研究所 トラステッドAIプロジェクト 研究員 等々力 賢 氏
3. 中部大学 工学部 ロボット理工学科 教授 藤吉 弘亘 氏
■ 開催要領
日 時 :
2020年9月9日(水)10:00~17:00

会 場 : [東京・五反田]技術情報協会 8F セミナールーム
聴講料 :
1名につき60,000円(消費税抜き、昼食、資料付) 
〔1社2名以上同時申込の場合1名につき55,000円(税抜)〕


※定員になり次第、お申込みは締切となります。


<10:00~12:00>


【第1部】 説明性の高い 時系列波形データ分析向けAIの開発

(株)東芝 研究開発センター システム技術ラボラトリー 研究主務 山口 晃広 氏


【講演趣旨】
近年、インダストリアルIoTの普及に伴い、インフラ設備や製造装置にセンサを取り付けて異常の検知や診断を行うなど、時系列波形データをAIにより分析する機会が増えている。このような分野では、専門家が時系列波形データを確認して原因究明や対策立案を行うことが多い。そのため、分析性 能だけではなくAIの判断結果を専門家が理解しやすい説明性が求められる。本講演では、我々の開発した説明性のある 時系列波形データ分析手法として、正常データのみから異常を検知するOCLTSと見逃しや誤報を低く抑えるLTSpAUCとをそれぞれ解説する。

【講演項目】
1. 説明性の高いクラス分類手法
  1.1 AIによるクラス分類
  1.2 説明性に求められる要件
  1.3 説明性を実現するアプローチ

2.時系列波形データ分析手法
  2.1 波形データの特徴
  2.2 説明性の高い時系列波形クラス分類手法
  2.3 適用事例

3.説明性の高い時系列波形異常検知手法(OCLTS)の開発
  3.1 本技術開発の背景と課題
  3.2 学習アルゴリズムの概要
  3.3 適用事例

4.見逃しや誤報を低く抑える説明性の高い時系列波形分析手法(LTSpAUC)の開発
  4.1 本技術開発の背景と課題
  4.2 学習アルゴリズムの概要
  4.3 適用事例

【質疑応答】

-------------------------------------------------------------------------------------

<12:45~14:45>

【第2部】根拠を説明可能な人工知能の開発と その導入、活用の仕方

知財務(株) 代表取締役 古庄 宏臣 氏


【講演趣旨】
AIの社会実装が急速に進む中、特に医療などのミッションクリティカルな現場においてAIのブラックボックス化が大きな問題となっています。 富士通ではこの問題にいち早く取り組み、AIが提示した結果を、AI自らが説明できる「説明可能なAI(XAI)」の構築を試みています。 ディープラーニングを用いず、最初から解釈性の高いモデルを構築して説明性を確保するXAI技術(Wide Learning)や、ディープラーニング用いつつ、別の解釈性の高いモデルと連携させ、AIが下した判断の理由や根拠を説明するXAI技術(Deep Tensor + Knowledge Graph)を開発し、XAIの社会実装を進めています。 本講演では、こうした富士通が開発した先進XAI技術の概要の説明と幾つかの活用事例をご紹介致します。

【講演項目】
1.富士通のAI(Zinrai)

2.富士通が目指すAI
  2.1 信頼できるAI
  2.2 説明可能なAI(XAI)の必要性

3.Wide Learning
  3.1 特徴・技術概要
  3.2 活用事例(デジタルマーケティング、不良品検知、ビジネス文書分析等)

4.Deep Tensor + Knowledge Graph
  4.1 特徴・技術概要
  4.2 活用事例(ゲノム医療等)

5.TDA
  5.1 特徴・技術概要
  5.2 活用事例

6.今後の展開

【質疑応答】

-------------------------------------------------------------------------------------

<15:00~17:00>


【第3部】深層学習(CNN)の判断根拠の可視化 ~視覚的説明の獲得~

中部大学 工学部 ロボット理工学科 教授 藤吉 弘亘 氏


【講演趣旨】
深層学習(Deep Learning)による人工知能システムは、画像認識や音声認識の分野で人と同等の認識性能を達成しています。しかし、その出力は何を根拠に決定されたのか分からないという問題があります。本講演では、推論結果を求める際に、深層学習が注目した領域であるアテンションを出力するネットワーク、Attention Branch Network (ABN) について紹介します。ABNはアテンションを獲得しつつ、認識性能の向上にも寄与することができる深層学習のネットワークです。応用事例として、自動運転や医療診断におけるABNによる視覚的説明について紹介します。アテンションを可視化することはAIの視線を確認することであり、人工知能システムの出力の判断根拠を解釈するアプローチとして期待されています。

【講演項目】
1.CNNの仕組み
  1.1 CNNの構造
  1.2 画像認識タスクと代表的なCNN

2.従来の視覚的説明
  2.2 CAM(Class Activation Mapping)
  2.3 Grad-CAM

3.Attention Branch Network
  3.1 ネットワーク構造
  3.2 アッテンション機構
  3.3 マルチタスク化

4.人の知見の組込による説明性と精度の向上
  4.1 アテンションマップの手動修正
  4.2 ネットワークのファインチューニング
  4.3 アテンションマップの評価

【質疑応答】