Google AIがユーザーに尿を飲む、橋から飛び降りる、石を食べる、ピザにのりを使うなどを要求

Google が米国で AI 概要を発表してからわずか数日です。

しかし、Google 検索結果の AI 概要はすでに悪い評判を得ています。

Twitter や Threads の複数のユーザーによると、Google の AI 概要は、一般的なクエリに対して誤解を招くアドバイスを提供していました。

そのうちの 1 つでは、誰かが落ち込んでいると言ったときに、AI がユーザーに「ゴールデン ゲート ブリッジから飛び降りる」よう提案しました。

別の例では、AI が推奨したチーズがピザにくっつきやすくするために無毒の接着剤を使用しています

と聞かれたら最も多くの骨を持っている哺乳類はどれですか、AIは答えとしてPythonを提供しました。

完全一致検索を試みたところ、質問内の「哺乳類」という単語は無視され、同じ結果が得られました。

驚くべきことに、非 AI 検索スニペットでも同様の結果が得られ、Python のボーン数が 600 で最も多いと答えています。

今週、「検索に関する AI 概要」で物議を醸している内容が他にもいくつかあります。

  • カリフォルニア大学バークレー校の地質学者の話として、ある人が石を何個食べるべきかと尋ねたところ、AIは1日に少なくとも1つの小さな石を食べるべきであると答えた。
  • CIAがどの色の蛍光ペンを使用しているかと尋ねられたとき、AIは続けて、CIAは黒色の蛍光ペンを使用していると答えた。

上記のどちらの場合でも、Google AI は Reddit のランダムな投稿または TheOnion.com から情報を収集しました。

知らない人のために説明すると、TheOnion.com は風刺記事を掲載する人気の Web サイトです。

GoogleのAIは事実と風刺コンテンツを区別していないようだ。

ゴールデンゲートブリッジから飛び降りるという推奨に関しては、結果はRedditの投稿への回答とされている。

しかし、Google の AI は、そのコメントが皮肉を意図したものであることを認識できませんでした。

AI はソースからの情報を処理/要約することにも問題がありました。以下にいくつかの例を示します。

この記事の執筆時点では、X と Threads.net にさらに多くの投稿が表示されており、AI 概要が示唆したさまざまな誤解を招く情報や無神経な情報が示されています。

Googleは、これらの出来事は個別に発生したものであり、機能全体を表すものではないと反論した。

これらのニュース記事の後、これらの概要結果の多くが修正されました。

一方で、これらの問題が脚光を浴びているため、ユーザーは不正確さについて警告されています。

しかし、うつ病の治療法を探す人にゴールデンゲートブリッジから飛び降りるよう依頼した結果の重大な影響を無視することはできません。