주요 기사 바로가기

作った人もよく分からないAI、人間の理解能力を越えた(2)

ⓒ 中央日報/中央日報日本語版2017.07.27 11:20
0
しかし、マシンラーニング技術を採択した今日のAIは違う。開発者がAIに基本的な規則や学習能力を作ってデータを入力すれば、残りはAIが自ら体得する。この「自ら体得する部分」は開発者に未知の領域として残っている。開発者がAIを騙すことのできない「ブラックボックス」と呼ぶ理由だ。

2013年、将棋で日本の最高手を破ったAI「「ポナンザ(Ponanza)」を作った開発者、山本一成氏はAI開発の難解さをこのように説明した。「例えば、プログラムの中に入れた数値がなぜその数値でなければならないのか、なぜ他の組合でなくこの組合を使った時、さらに性能が良いかどうかを開発者は全く分からない。実験を通じてどのプログラムがより良いかを経験的に分かるだけ」

 
山本氏はそれぞれ違うバージョンのポナンザ同士に3000回程度の対局をさせ、この対局統計を分析しより良いポナンザのプログラムを採択する方式でポナンザを改良した。採択されたポナンザはそうでないポナンザより平均2%ポイント程度勝率が高かったという。対局で52%の勝率を上げたポナンザが生き残り、このポナンザがもう一つのポナンザと対局を行う。最初はアマチュアよりも実力が劣っていたポナンザは、この過程を繰り返しながら人間の最高手も破ることができるほど優秀になった。

山本氏はなぜ一つのポナンザが違うポナンザよりも勝率が高いのかを分かっていない。山本氏が行ったのは、プログラムの構造を変えて対局をさせ、その結果を統計化して分析することであり、AIの性能を高めるにはその過程だけでも十分だったためだ。山本氏は「AIの性能を高めれば高めるほど、その性能が高まる理由が理解できなくなるジレンマが発生する。このジレンマはすでにAI開発の原則のように受け入れられている」とし「AIはすでに開発者の懐から卒業した。今後の人類は(アルファ碁に挫折した)プロ棋士と同一の経験をすることになるだろう」と説明した。

AIの活用領域は流通、金融、医療、軍事などで引き続き拡張される見通しだ。融資を誰にどれくらい貸した方が良いのか、どこに投資をすれば良いのか、誰を採用すれば会社に利益になるのかなどわれわれの人生に影響を及ぼす重要な決定にAIはすでに一定の影響を及ぼしている。それでもAIが下した決定をどのように受け入れ、それに対する責任は誰がどのように負うのかに関する議論はまだまだだ。

欧州連合(EU)は昨年成立させた一般データ保護規則(GDPR)にAIの決定による被害を減らすための安全装置を挿入した。これによると、人間はAIが単独で下した決定の主体にならない権利、AIが下した決定について説明を要求する権利を持つ。この法は2年間の準備期間を経て来年5月からすべてのEU諸国で施行される。

英オックスフォード・インターネット研究所のブライス・グットマン研究員は「AIの複雑な人工神経網の中で学習された情報を果たしてどのように説明するのかに対する議論はマシンラーニング研究者の間でもここへ来て注目をあび始めた」とし「カギはAIが単に効率だけでなく、透明性と公正性まで備えることができるかということ」と指摘した。

しかし、われわれがAIを透明に理解する道は今後も永遠にないかもしれない。米ワイオミング大学(コンピュータ工学)のジェフ・クルーン助教は科学技術専門紙MITテクノロジーレビューに「たとえ、ある人が自分が下した決定の理由をもっともらしく説明したとしても、おそらくその説明は不完全だろう。これはAIも同様だ」とし「全て理性的に解明されないのが知能の本性かもしれない。理性で説明できない部分は直観的か、無意識的、もしくはそもそも解釈が不可能なもの」と話した。


作った人もよく分からないAI、人間の理解能力を越えた(1)

関連記事

最新記事

    もっと見る 0 / 0
    TOP