【社説】チャットボット「イルダ」論争…AI時代の反面教師にしなくては=韓国
ⓒ 中央日報/中央日報日本語版2021.01.13 13:24
ヘイト発言などで議論になった人工知能(AI)チャットボット「イルダ」が3週間で結局サービスを中断した。イルダは対話中に同性愛者や障害者に差別的で、利用者が要求する場合には「性奴隷」水準の返答までし、メディアと社会に叩かれた。一方では関心を集めてイルダの会員数は先週末を経て20万人以上急増したりもした。
事実、AIチャットボットをめぐる問題は今回が初めてではない。2016年に米マイクロソフトがチャットボット「テイ」を出したが白人優越主義と女性嫌悪などの問題が起きてサービスを中断したことがある。2002年に韓国で初めての国産チャットボット「シムシミ」もこれまで同様の倫理問題が起きながら少しずつ進化した。いまでは韓国より海外で有名になり、世界の累積使用者は4億人近いという。それでもイルダが突然議論になったのは外国ではなく韓国国内でAIチャットボットをめぐるヘイトと性差別などの倫理問題が起きたためだ。「AI倫理不感症」や「規制死角地帯」など批判の声は熱い。
韓国社会がイルダ論争で直視すべきことは大きく2種類だ。最初はビッグデータ利用と管理の問題だ。イルダはスタートアップのスキャッターラボが自社の別のサービスを通じて恋人同士のカカオトーク対話数億件を入手し、これを基にチャットボット学習をしたという。利用者の同意も受けたので合法という立場だ。だがほとんどの利用者は対話内容がAIチャットボットサービスの材料になるとは想像もできなかっただろう。AIにとってビッグデータはロケットの燃料のような存在だ。良いビッグデータを入手してこそ良いAIが作られる。専門家らは「説明できて透明で、普遍妥当なビッグデータが使われなければならない」と口をそろえる。ビッグデータ使用に対する具体的同意を経るべきという点は言うまでもない。