メールマガジン

vol.106 – 「XAI 説明可能なAI」

 

人間が持つ頭脳の働きを模したAIはビッグデータを学習することで高精度な分析を可能にしました。

とくに、画像認識などでは、人間の能力を上回ったとされています。一方で計算が複雑なため、結論に至った過程が「ブラックボックス」になりやすいという難点があります。

AI活用を進める多くの企業が、AIの「ブラックボックス」化に頭を悩ませているようです。

「深層学習」を使うと高度な分析ができる一方、AIの”判断根拠”が不透明になるため、”人命”や”企業の存亡”などを左右する分野では使いづらいという壁にぶち当たりがちです。

 

そこで注目されるのが「XAI」すなわち「EXPLAINABLE(=説明可能)AI」です。

日本のNECや富士通だけでなく、世界のIT企業がその技術開発を加速しつつあります。

深層学習とXAIの違い

 

AIの説明機能欠如という課題とは?

 
「現時点でAIを全面的に導入するのは難しい」と、ある大手化学メーカーの人事担当者はこう口にしました。

同社は昨年から採用管理にAI機能を試験的に使い始めました。

担当者の判断で落とした学生の中から、AIが複数の有望候補を発掘し、そのうち1人が2019年新卒として同社に入社しました。

このように実績はあるものの、試験導入にとどまるのは理由があります。

AIは学生が”採用サイトを訪問する頻度”や”説明会の出席率”などに関するビッグデータから学生の有望度を学習し、それに基づいて合否を判定する仕組です。

しかし、AIがどのデータを重視したのかは不明となります。

「合格させた根拠を上司に聞かれても説明できない」と担当者は話します。

AIが引き起こした主な事故の表

グーグルが2015年、写真検索で画像認識AIを導入したところ、黒人を「ゴリラ」だと判断しました。

2016年にはマイクロソフトの会話型AIが、悪意のあるネットユーザに不適切な言葉を教え込まれ、ツイッタで差別発言を連発しました。

採用の書類選考をAIに委ねて失敗したのが、アマゾンです。

過去の履歴書データをAIに学習させたところ、応募者の多くが男性だったため、女性に対して差別的な評価を下すようになったのです。

 

このように、どんなデータを学習させるかでAIは”天使”にも”悪魔”にもなります。

「倫理問題はトップが取り組むべき経営課題だ」とAI動向に詳しい専門家が指摘しており、ソニーやNECなど倫理指針を公表する企業も相次ぎました。

AIに倫理を教え込むには、倫理に関わる思考回路を人間が理解する必要があります。

 

「説明責任」を果たすXAIの意義とは

 
社会の様々な分野でAIを活用するためにも、XAIの開発が急務になっています。

 

AIが普及する中で「説明」を求められる場面は今後急増するでしょう。

例えば、人材採用は経営の根幹ですし、医療行為では、AIの判断が”人命”を左右しかねません。

融資審査次第では”企業の存亡”にも影響を及ぼすでしょう。

自動運転車が事故を起こした場合、AIの判断根拠が「ブラックボックス」では原因を解明できません。

いずれの場合でも「説明責任」が求められるようになります。

 

逆にこの課題を克服できれば、企業のAI活用が加速するため、IT各社が「XAI」の開発競争を繰り広げると考えます。

 

NECは「深層学習」に加え旧式技術を応用し、分析結果の根拠を示せる「ホワイトボックスAI」に活路を見出しました。

アサヒビールが飲料需要予測に活用するなど導入例が増えているようです。

富士通は対照的に、多くの顧客が使う「深層学習」の改良に取り組みました。

同社は2019年4月、国内の複数大学と実証実験を始めました。

18万件の遺伝子変異データをAIに「深層学習」させて、疾病の発生リスクを算出するものです。

このとき、やはり既存技術を使用することで、別手法でも医学論文などを分析します。

これら2つの結果を「答え合わせ」してAIの判断根拠を類推する仕掛けです。

この手法は金融機関の融資判断などにも展開できると富士通は見込んでいます。

日立も米国の医療機関とXAIの実用化を模索しており、電子カルテを活用して医療システムの高度化を目指します。

 

米国防総省の国防高等研究計画局(DARPA)は、XAIなどの研究に20億ドル(約2200億円)を投じると表明しました。

IBMも2018年、AIの挙動を分析して判断根拠を探るツールを発売しています。

 

各国政府によるルール策定の動きも背景にあるようです。

日本政府は2019年3月、「人間中心のAI社会原則」に「説明責任の確保」を盛り込んで、この観点を重視する方向です。

欧州連合(EU)も2019年4月、AI倫理指針で説明責任を求めました。

判断根拠を示せない「ブラックボックス」AIは今後、企業だけでなく政府機関への導入に制約がかかる可能性があります。

 

米マッキンゼーはAIが2030年までに世界で13兆ドルの経済効果をもたらすと予測しており、「深層学習」ではやや出遅れた日本のIT業界ですが、XAIでの競争はこれからが正念場となります。

 

このように、AIなどの新技術を適用する場合、それだけでは解決できない課題に対して、既存技術や知識を利活用することでその有効性が増す場合があります。

過去に蓄積された技術・知識・ノウハウはムダではありません。

新技術で壁にぶちあたったとき、あのときの技術が使えないか・・・と棚卸し・振り返りすることも大切ではないかと考えます。