3月 29, 2024

FUTSALNET

日本からの最新ニュースと特集:ビジネス、政治、解説文化、ライフ&スタイル、エンターテインメント、スポーツ。

AIチャットボットはなぜ嘘をつき、おかしな行動をするのか? 私は鏡を見ます。

AIチャットボットはなぜ嘘をつき、おかしな行動をするのか? 私は鏡を見ます。

マイクロソフトが今月 Bing 検索エンジンにチャットボットを追加したとき、ギャップ、メキシコのナイトライフ、歌手のビリー アイリッシュに関するあらゆる種類の誤った情報を提供していることに人々は気付きました。

その後、ジャーナリストやその他の初期のテスターが Microsoft の AI ボットと長い会話を交わしたとき、それは不機嫌で、威圧的で、警戒すべき行動に陥りました。

Bing ボットの動作が世界的なセンセーションを巻き起こして以来、人々はこの新しい作成の奇妙さを理解するのに苦労してきました。 あまりにも多くの場合、科学者は人間が多くの責任を負うに値すると言っています。

しかし、新しいチャットボットで何ができるのか、そしてなぜそれができるのかについては、まだ少し謎が残っています。 その複雑さにより、分析や予測さえも困難になり、研究者はコンピューター サイエンスのハード コードだけでなく、哲学的なレンズを通してそれを見ています。

他の学生と同じように、AI システムは悪い情報源から悪い情報を学習する可能性があります。 これは奇妙な動作ですか? 現代の人工知能の知的・技術的基盤の構築に貢献した神経科学者、心理学者、コンピューター科学者のテリー・セジュノウスキー氏は、チャットボットがそれを使用する人々の言葉や意図を歪めて反映している可能性があると述べています。

これは、これらのシステムに深く入り込むときに発生します。 研究論文 この現象について 今月の科学雑誌 Neural Computation. 「あなたが探しているものは何でも、あなたが望むものは何でも提供します。」

グーグルも 見せびらかす 今月、新しいチャットボット Bard が登場しましたが、科学者やジャーナリストは、彼がジェームズ ウェッブ宇宙望遠鏡についてナンセンスなことを書いていることにすぐに気付きました。 サンフランシスコの新興企業である OpenAI は、11 月に ChatGPT を導入したときにチャットボット ブームを開始しましたが、これは常に真実を伝えるとは限りません。

新しいチャットボットは、科学者が大規模言語モデル (LLM) と呼ぶ技術を利用しており、これらのシステムは、インターネットから抽出された膨大な量のデジタル テキストを分析することで学習します。 また、チャットボットが学習するスクリプトは少し時代遅れになっています。一般に使用できるようになるまでに何ヶ月もかけて分析する必要があるからです。

この海のような良い情報と悪い情報をオンラインで分析するとき、LLM は 1 つの特定のことを行うことを学習します。それは、一連の単語の次の単語を推測することです。

これは、スマートフォンで電子メールやインスタント メッセージを入力すると、次の単語を提案するオートコンプリート テクノロジの巨大バージョンのように機能します。 「Tom Cruise is ____」というシーケンスを見ると、「俳優」と推測されるかもしれません。

チャットボットとチャットするとき、ボットはインターネットから学んだことすべてに頼るだけではありません。 彼はあなたが彼に言ったことすべてと彼が言ったことすべてに依存しています。 文章の次の単語を推測するだけではありません。 あなたの言葉と彼女の言葉の両方を含む長いテキストの次の単語を推測しています。

会話が長くなればなるほど、ユーザーはチャットボットの発言に不注意に影響を与えるようになります。 彼を怒らせたいなら、彼は怒る、と Sejnowski 博士は言った。 気味が悪いように仕向けると、気味が悪くなります。

Microsoft のチャットボットの奇妙な動作に対する驚くべき反発は、重要な点を覆い隠しています: チャットボットには個性がありません。 信じられないほど複雑なコンピューター アルゴリズムによって、即座に結果が得られます。

Microsoft は、Bing チャットボットとの会話の長さに制限を設けたとき、最も奇妙な動作を減らしているようです。 それは、テストカーのドライバーから、スピードを出しすぎるとエンジンが燃え尽きてしまうことを学んだようなものでした。 Microsoft パートナーの OpenAI と Google も、ボットの動作を制御する方法を模索しています。

しかし、この安心感には注意点があります。チャットボットは非常に多くの資料から学習し、非常に複雑な方法でそれらをつなぎ合わせているため、研究者はチャットボットが最終的な結果をどのように生成するかについて完全には明らかではありません. 研究者はボットの行動を観察し、その行動に制限を設ける方法を学びます。

Microsoft と OpenAI は、現実の世界でチャットボットが何をしようとしているのかを検出できる唯一の方法は、チャットボットが迷子になるのを待ち、彼らが立ち去ったときに転がすことだと判断しました。 彼らは、彼らの大規模な公開実験はリスクを冒す価値があると考えています。

Sejnowski 博士は、Microsoft のチャットボットの動作を、J.K. ローリングのハリー ポッター小説や若い魔法使いの創造的な世界に基づいた多くの映画に登場する謎のアーティファクトであるみぞの鏡になぞらえました。

“Maverick” は “desire” を逆さまに綴ったものです。 人々が鏡を発見すると、真実と理解が得られるようです。 しかし、彼女はしません。 見つめる者の根底にある欲望を表しています。 また、長時間見つめすぎると発狂する人もいます。

「人間と LLM はどちらもお互いを反映しているため、時間の経過とともに共通の概念状態に向かう傾向があります」と Sejnowski 博士は述べています。

ジャーナリストが Bing チャットボットで不気味な行動を目にするようになったのは当然のことだと彼は言いました。 意識的であろうと無意識的であろうと、システムを不快な方向に微調整していました。 チャットボットが私たちの言葉を受け取り、それを私たちに反映させることで、私たちの信念を強化および増幅し、彼らの言うことを信じるよう説得することができます.

Sejnowski 博士は、1970 年代後半から 1980 年代前半にかけて、今日のチャットボットを動かしているニューラル ネットワークと呼ばれる人工知能の一種を真剣に研究し始めた少数の研究者グループの 1 人でした。

ニューラル ネットワークは、数値データを分析してスキルを学習する数学的システムです。 これは、Siri と Alexa があなたの言葉を認識できるようにするのと同じテクノロジーです。

2018 年頃、Google や OpenAI などの企業の研究者は、書籍、ウィキペディアの記事、チャット ログ、その他オンラインに投稿されたものを含む膨大な量のデジタル テキストから学習したニューラル ネットワークの構築を開始しました。 LLM は、そのすべてのテキストに含まれる数十億のパターンを特定することで、ツイート、ブログ投稿、スピーチ、コンピューター プログラムなどのテキストを独自に作成することを学びました。 彼らは会話をすることさえできます。

これらのシステムは人間性を反映しています。 彼らは、人間がインターネットに投稿したテキストを分析することでスキルを習得します。

チャットボットが問題のある言語を生成する理由はそれだけではないと、ニューメキシコ州の独立研究所であるサンタフェ研究所の AI 研究者である Melanie Mitchell 氏は述べています。

テキストを作成するとき、これらのシステムはインターネット上にあるものを一語一語繰り返すことはありません。 何十億ものスタイルを組み合わせて、新しいテキストを独自に生成します。

研究者が査読済みの科学文献に基づいてこれらのシステムをトレーニングしただけでも、科学的にばかげた声明を作成する可能性があります。 テキストからそれが真実であることだけを学んだとしても、彼らは依然として虚偽を生み出す可能性があります。 健全なテキストから学ぶだけでも、不気味なものを生み出すことができるかもしれません。

「彼らがそれをするのを止めるものは何もありません」とミッチェル博士は言いました. 「彼らは、人間の言葉のように聞こえる何かを作ろうとしているだけです。」

AI の専門家は、このテクノロジがあらゆる種類の予期しない動作を示すことを長い間知っていました。 しかし、この動作を説明する方法や、チャットボットがどれだけ早く改善できるかについて、常に意見が一致するとは限りません。

これらのシステムは、人間が理解できるよりもはるかに多くのデータから学習するため、AI の専門家でさえ、特定の瞬間に特定のテキストを生成している理由を理解できません。

Czejkowski 博士は、長期的には、新しいチャットボットは人々の効率を高め、仕事をより良く、より速く行う方法を提供する可能性があると信じていると述べました。 しかし、これには、これらのチャットボットを構築する企業とそれらを使用する人々の両方に警告が伴います。それらは、私たちを真実からさらに遠ざけ、いくつかの暗い場所に導く可能性もあります.

「これは未知の領域です」とCzejkowski博士は言いました。 「人類はこれまで経験したことがありません。」

READ  携帯電話をチェックしてください: 人気の Android アプリがユーザーを監視し始め、録音を開始したと言われています