4月 26, 2024

FUTSALNET

日本からの最新ニュースと特集:ビジネス、政治、解説文化、ライフ&スタイル、エンターテインメント、スポーツ。

「60 Minutes」は、Google AI チャットボットについてかなり厄介な主張をしました

「60 Minutes」は、Google AI チャットボットについてかなり厄介な主張をしました

OpenAI が ChatGPT を世界に解き放って以来、信じられないような人々を連れて行くのを見てきました。 一部の人々は、チャットボットには目覚めたアジェンダがあると主張しています。 米国上院議員の Chris Murphy は、ChatGPT 自体が高度な化学を「教えた」とツイートしました。 ベテランの技術ジャーナリストでさえ、それがどのように機能するかについての記事を書いています チャットボットは彼らに恋をした. あたかも穴居人が最初に火を見たときに反応したのと同じように、世界が AI に反応しているように見えます。

最近の例の 1 つは、 60分、CBS Sunday で放映された人工知能の革新に焦点を当てた新しいエピソードで、彼の声をリングに投げ込みました。 このエピソードでは、Google の CEO であるサンダー ピチャイなどのインタビューが取り上げられ、疑わしい内容が含まれていました。 同社の大規模言語モデル (LLM) の 1 つに関する主張。

このセグメントは、モデルの開発者によって必ずしも意図されていなかった AI システムの予期しない副作用について説明する、緊急の動作に関するものです。 私たちは、最近の他の AI プロジェクトで新たな行動が出現するのをすでに見てきました。 たとえば、研究者は最近、ChatGPT を使用して、先週オンラインで公開された研究で目標と背景を持つデジタル ペルソナを作成しました。 彼らは、システムが、あるキャラクターから別のキャラクターに新しい情報を共有したり、相互に関係を形成したりするなど、さまざまな緊急の行動を実行することに注目しています。

新たな行動は、確かにニュース番組で議論する価値のあるトピックです. はどこですか 60分 しかし、ビデオは、Google のチャットボットが、その言語で尋ねられた後、以前は知らなかった言語を実際に学習できたという主張について知ると、方向転換します. 「たとえば、Google の AI プログラムの 1 つが、訓練を受けていないバングラデシュの言語で行うように指示された後、独自に適応しました」と、CBS ニュースのレポーターであるスコット ペリーはビデオで述べています。

AI の専門家によると、これは本格的な学士号です。 ロボットは、「習得するために訓練したことのない」外国語を学習できなかっただけでなく、自分自身に新しいスキルを習得することもできませんでした。 クリップ全体を見て、AI の研究者や専門家は、ニュース番組の誤解を招くフレーミングを Twitter で批判するようになりました。

サンタフェ研究所の AI 研究者兼教授である Melanie Mitchell 氏は、次のように述べています。 彼はツイートに書いた.

「テクノロジーについて魔法のように考えるのはやめましょう! トレーニング データがベンガル語で汚染されているか、アッサム語、オリヤー語、ヒンディー語など、ベンガル語と重複する言語でトレーニングされていない限り、#AI がベンガル語で応答することはできません。」 アレックス O. マサチューセッツ工科大学の研究者、 別の投稿で追加.

それは注目に値します 60分 クリップは、彼らが使用した AI を正確には言いませんでした。 CBS のスポークスパーソンは The Daily Beast に、このセグメントは吟遊詩人に関する議論ではなく、人工知能に関する別の番組であると語った. しかし、この部分がこれらの専門家にとって非常に苛立たしい理由は、ジェネレーティブ AI が実際にできることを無視し、それを利用しているからです。 そもそも言語にアクセスできなければ、自分自身に言語を「教える」ことはできません。 これは、マンダリンを独学しようとしているようなものですが、誰かがマンダリンを一度尋ねた後にしか聞こえませんでした.

結局のところ、言語は信じられないほど複雑です。理解して伝達するには、信じられないほどの文脈のニュアンスとルールが必要です。 最も高度な LLM でさえ、いくつかのプロンプトでそのすべてを処理して学習する方法はありません。

さらに、AI ソフトウェアは、バングラデシュの主要言語であるベンガル語を理解するようにすでに訓練されている可能性があります。 AT HuggingFace の Startup Lab の研究者であり、以前は Google に勤務していた Margaret Mitchell (無関係) は、 ツイートのトピック 理由を主張する 60分 おそらく間違いでした。

Mitchell 氏は、Google が最近導入した公開チャットボットである Bard には、PaLM と呼ばれるそのモデルの初期の反復からの作業が含まれていると指摘しました。 2022 年のデモンストレーションで、Google は、PaLM がベンガル語で通信し、プロンプトに応答できることを示しました。 の Palm の背後にある紙 データシートによると、モデルはベンガル語のアルファベットで約 1 億 9,400 万の記号を使用して実際にトレーニングされたことが明らかになりました。

別の神秘的な AI プログラムが何であったかはわかりませんが、PaLM からの同じ研究に依存していた可能性が高く、データセットにベンガル語が存在することを説明しています。

Google の CEO であるピチャイ氏がインタビューに応じなかった理由は不明であり、これらの主張が反対されずに続くことを許可した. (グーグルはコメントの要請に応じなかった。)エピソードが放映されて以来、専門家がクリップで行われた誤解を招く虚偽の主張を指摘したにもかかわらず、彼は沈黙を守ってきた. Twitter マーガレット・ミッチェル 提案 この背後にある理由は、自社の製品がどのように機能するかを知らない Google リーダーの組み合わせと、生成 AI に関する現在の誇大宣伝に対処するために不十分なメッセージが拡散されることを許している可能性があります。

「私は疑っている [Google executives] 私は文字通りそれがどのように機能するのか理解できません、ミッチェル チャープ. 「私が上に書いたことは、彼らにとってニュースである可能性が最も高いです。そして、彼らは理解しないように動機付けられています (このデータシートに目を向けてください!!)。」

ビデオの後半は、ピチャイとビリーが吟遊詩人が作成した「非常に人間的に聞こえる」短編小説について話し合っており、2人の男性がやや動揺しているため、問題があると見なすこともできます。

実は、これらの製品は魔法ではありません。 彼らは人間ではないので、「人間」になることはできません。 これらは、携帯電話にあるようなテキスト予測子であり、フレーズ内の一連の単語の後に最も可能性の高い単語やフレーズを思い付くようにトレーニングされています。 彼らが存在すると言うことは、信じられないほど危険なレベルの力を彼らに与えるかもしれません.

結局のところ、ユーザーはこれらのジェネレーティブ AI システムを使用して、誤った情報を広めるなどのことを行うことができます。 これが人々の肖像や声さえも操作することはすでに見てきました.

チャットボット自体でさえ、結果に偏りが生じると害を及ぼす可能性があります。これは、ChatGPT や Bard などですでに見られます。 これらのチャットボットが幻覚を起こして結果を捏造する傾向があることを知っているため、疑いを持たないユーザーに誤った情報を広めることができる可能性があります。

研究もこれを裏付けています。 最近の研究 で掲示されます 科学レポート 彼は、倫理的な質問に対する人間の反応は、ChatGPT の議論によって簡単に影響を受ける可能性があること、さらにはユーザーがボットによってどれだけ影響を受けるかを過小評価していることを発見しました。

についての誤解を招く主張 60分 これは、デジタル リテラシーが最も必要な時期に、デジタル リテラシーの必要性が高まっていることを示す兆候にすぎません。 多くの AI 専門家は、今まで以上に、AI ができることとできないことを人々が認識する必要があると述べています。 ロボット工学に関するこれらの基本的な事実は、より広く一般の人々にも効果的に伝えられなければなりません。

これは、最大のプラットフォームと最も大きな声を持つ人々 (つまり、メディア、政治家、ビッグテックの CEO) が、より安全でより教育を受けた AI の未来を確保する上で最も大きな責任を負うことを意味します。 そうしないと、前述の穴居人のように、火の魔法で遊んで、その過程でやけどを負ってしまう可能性があります。

編集者注: この記事の以前のバージョンでは、60 分のセグメントで議論された AI は吟遊詩人であり、別の Google AI であると述べていました。

READ  AT&Tが未来を「予測する」7つのなじみのない方法