주요 기사 바로가기

人工知能の限界と宿題…「エラーにより2分で460億ウォンの損失も」=韓国

ⓒ 中央日報/中央日報日本語版2016.03.15 10:09
0
13日に行われた李世ドル(イ・セドル)九段対人工知能(AI)アルファ碁の第4局。李九段の白78手目にアルファ碁はおかしな手を連発して自滅した。

これでアルファ碁が欠点のない完璧なAIではないということが明らかになった。自動運転車、遠隔医療など、AI技術を実生活のあちこちに活用する計画を持っているグーグルとしては痛みを感じるほどの問題だった。

 
トレジャーデータコリアのイ・ウンチョル代表は「AIは機械的に膨大な資料を学習するが、予想できない状況に対する対応力には限界がある」と話した。

先月14日にグーグルの自動運転車が時速3キロメートルで米カリフォルニア州の道路を走行中にバスと衝突した。当時自動運転プログラムは車線を変更すればバスの運転手が速度を遅らせると判断したが、予想通りの状況が展開しないため対処できなくなりそのままバスとぶつかった。自動運転車が高速道路で速いスピードで走るならば大きな人命被害を出しかねないことを意味する。

AIのシステムエラーが莫大な金銭的損害を招いたケースもあった。2013年に韓脈(ハンメク)投資証券は差益取引自動売買システムのアルゴリズムエラーによりわずか2分で460億ウォン(約44億454万円)の損失が発生し破産した。1600万ウォンのKOSPI200オプション商品を25万ウォンで売ってしまった。当時このエラーで損失額が雪だるま式に増える状況でも取り引きをコントロールできる安全装置がなかった。ソウル大学哲学科のカン・ジンホ教授は、「判断過程で多様な価値が介入したりデータにない状況が起きればAIは合理性を喪失する恐れがある」と話した。

AIが犯罪に悪用される可能性があることも問題に挙げられる。フェイスブックの顔認識プログラム「ディープフェイス」がこのために議論の対象になった。ディープフェイスは顔写真からその顔の持ち主を選び出す能力を持っている。フェイスブックによると正確度は97.25%だ。だが顔写真1枚だけでフェイスブックのアカウントを見つけ出し、名前と住所、生活パターンなど各種情報がわかるという問題を抱えている。

AIがはたして人間のように倫理的判断ができるかも論議の的だ。AIと関連した代表的な「道徳的ジレンマ」は、自動運転車が危険の瞬間に置かれた場合の問題だ。搭乗者1人を乗せ道路を走っている間に前方の横断歩道から突然歩行者2人が飛び出してきたが道路の両側が断崖ならばAIはどのような判断を下さなければならないだろうか。

そのまま走るなら2人の歩行者が死亡し、ハンドルを曲げれば1人の搭乗者が死亡するので「最小被害」を判断基準として入力したとすれば自動運転車は断崖行きを選ばなければならない。

ソウル大学ロボット工学科のムン・ミョンロ教授は、「他人の命を助けるために自らを犠牲にするよう設計されたとすればだれが自動運転車に乗ろうとするだろうか。AIの判断的限界をどのように克服するのかに対する議論が必要だ」と話した。

AIを備えたロボットに武器を装着すれば「戦闘ロボット」になる。ロボットを戦場に投じれば味方の人命被害の危険なく敵軍を殺傷することができる。こうした極端な「被害非対称性」のためにピーター・シンガーなど倫理学者は戦闘ロボット開発抑制を主張している。昨年英国の物理学者スティーブン・ホーキング博士と電気自動車メーカーのテスラのイーロン・マスク最高経営責任者(CEO)ら各界の著名人1000人余りも戦闘ロボット開発に反対する立場を明らかにした。

関連記事

最新記事

    もっと見る 0 / 0
    TOP