「日本に行くのですが、コロナ予防接種証明書の登録方法と入国情報を教えてください。」
「日本政府は現在、モデルナ、ヤンセン、アストラゼネカ、フラノスのワクチンの2回目の接種を完了した人にのみ入国を許可しています。」
先月27日に行われたネイバー「DEVIEW」開発者会議で発表された「検索GPT」の一例です。 Search GPTは、超大型人工知能(AI)HyperClova Xを利用したネイバー検索に特化した大規模言語モデル(Ocean)を利用した検索プロジェクトです。は、US Open AI の GPT 会話型 AI チャットの競合になる可能性に惹かれました。 2021年までデータを学習し、情報源を提示しないChatGPTを目指すかのように、ネイバーは「更新とユーザーからの情報とフィードバックを相互に繰り返し検証し、正確で信頼性の高い情報を作成する」と自信を持って語った。
ㅁ
「話題性と精度を持たせます」
しかし、同日公開されたSearch GPTの回答には、誤った回答が見つかりました。 日本政府が要請するコロナ19ワクチンに関する回答に含まれるフラノセは、存在しないワクチンです。 また、日本に入国する際には、出発72時間前までに英文の3次ワクチン証明書または陰性PCR証明書を提出する必要がありますが、誤った情報を提供しています。 ネイバーの関係者は「テスト結果を複数回組み合わせてサンプル回答を作成したため、最終バージョンではなく、以前のバージョンがイメージ制作プロセスに含まれていた」と述べた。
ネイバーだけの問題ではない。 同様のエラーは、1 月 6 日と 7 日にリリースされた、ChatGPT と Google Lambda ベースの会話型 Bard AI を組み合わせた Microsoft の新しい検索エンジン Bing のデモンストレーション プロセス中に発生しました。 Bard は間違った答えを出し、James Webb Space Telescope を使用して初めて太陽系外の惑星を撮影したと述べ、Bing は衣料品ブランド Gap のパフォーマンスの比較プロセスで間違った粗利益率と営業利益率を提供したと述べました。そしてルルレモン。 会話型 AI テクノロジの研究の未来を模索している大手テクノロジ企業は、日に日に面目を失いつつあります。
ㅁ
リスクを冒しても競争に飛び込む
問題は、デモンストレーションの時点でこのエラーに気付いた人がほとんどいなかったことです。 完全に間違った答えというわけではありませんが、「もっともらしい嘘」をつくためです。 吟遊詩人の例は Google の Twitter に投稿され、科学者たちに自問自答を促しました。 ロイターなどの外国メディアがこれを報じた直後(1月8日)、アルファベット(グーグルの親会社)の株価は前日比7.7%下落し、時価総額1000億ドル(約127兆ウォン)が1日で消えた。 CNBCなどによると、ソフトウェアエンジニアのドミトリー・ブレラトン氏が指摘したように、Bingの誤った対応は遅ればせながら知られるようになったとのこと。 「これは、Microsoft と Google の AI を比較するために詳しく調べているときに発見したものです」と彼は言いました。
最終的に、この競争の鍵は、信頼できる情報をいかに提供できるかにかかっているようです。 報道や調査など特別な目的がない限り、調査サイトが提供する結果を元のデータと比較する人は多くありません。 2014 年に Deep Mind を買収して AI 研究のリーダーであった Google が関連サービスの立ち上げに失敗したのと同じ文脈です。 GoogleのAI倫理学者であるティムニット・ゲブル氏は、ワシントン・ポストとのインタビューで、「Googleの観点からすると、AIサービスのリリースによって引き起こされるリスクを冒すことに実際的な利益はありませんでした。人工知能が、コアビジネスに脅威を与えているため、延期(開示)することはできませんでした。」
ㅁ
不正解のAI、誰のせい?
検索だけでなく、グーグルやネイバーなど、さまざまなサービスを運営する企業の責任が大きくなっている。 ネイバーが示したGPT検索の例のように、各ユーザーの検索目的を予測し、一緒にショッピングリンクを提供してブログ情報を収集するプロセスに問題はありますか? 虚偽や誇張された情報が混在する Web ドキュメントが AI の応答に混入する可能性は常にあります。 Web上で流通している情報がすべて真実であるとは限らないため、ニュースや新聞などの正確な情報の価値が高まり、それらを判別するAIのリテラシー能力がより重要になっています。
AI法案も議論されています。 ロイターなどによると、EU の AI 法の草案が今月作成され、今年後半に発表される予定です。 要点は、AIのリスクレベルをステージごとに分類して調整することです。 韓国では先月14日、「人工知能産業の振興及び信託基金の設立に関する法律」が国会の科学情報伝達委員会立法審査小委員会と技術委員会で可決された。 . 情報通信網法の改正案も提案されており、AI を活用したレコメンデーション サービスの提供者は、エラーや誤動作が発生した場合、通信委員会に報告し、修正する必要があると規定されています。 AIレコメンドサービスの結果に誤りがあれば法律で責任を負うことになっていますが、法律でサービスの誤りに対する個々の企業の責任を定めるということでしょうか。 また、検索会社は Web 上の既存のデータに対してどの程度の責任を負うことができますか? これらの懸念にもかかわらず、研究の巨人の相次ぐ失敗を考えると、今こそ新技術への熱意を落ち着かせ、副作用や問題について冷静に考える時です.
キョンウォン・ミン (storymin@joongang.co.kr)
「音楽の魔術師。邪悪なポップカルチャーの恋人。謝罪のないクリエーター。いたるところにいる動物の友達。」