12月 3, 2024

FUTSALNET

日本からの最新ニュースと特集:ビジネス、政治、解説文化、ライフ&スタイル、エンターテインメント、スポーツ。

OpenAIの研究者が辞任、安全性は「光沢のある製品より後回し」だと主張

OpenAIの研究者が辞任、安全性は「光沢のある製品より後回し」だと主張

共同創設者のイリヤ・サツケヴァー氏の退職を受けて今週初めに辞任したOpenAIの主任研究員ヤン・ライケ氏は、 X で公開 金曜日の朝、同社では「安全文化と業務運営がピカピカの製品に取って代わられた」とのこと。

レイクの発言はその後にあった 有線 言及された OpenAIは、長期的なAIリスクへの対処を専門とするチーム(「スーパーアライメントチーム」と呼ばれる)を完全に解散した。 ライク氏はスーパーアライメントチームを率いていた。 昨年7月に結成されました 安全プロトコルの実装における「根本的な技術的課題を解決するため」、OpenAI は人間のように考えることができる人工知能を開発しました。

OpenAI の当初のアイデアは、そのモデルを公開することであったため、組織名が付けられましたが、非公開になったのは次の理由によります。 請求 これらの強力なモデルへのアクセスを誰でも許可すると、壊滅的な事態になる可能性があります。

「私たちはAGIの影響について非常に真剣に取り組むのが遅れて久しい。私たちはできる限りの準備を優先しなければならない」とレイク氏は金曜朝の辞任に関するフォローアップの投稿で述べた。全人類に利益をもたらします。」

はしっこ 今週初めに、昨年の取締役会クーデター未遂の際にアルトマン氏を支援したもう一人のOpenAI共同創設者であるジョン・シュルマン氏がライキー氏の責任を引き継ぐと報じられた。 サム・アルトマンに対するクーデター未遂で重要な役割を果たしたサツケヴァー氏は火曜日に辞任を発表した。

「ここ数年、安全文化と安全運用はピカピカの製品へと後退してきました」とレイク氏は投稿した。

Leike氏の投稿は、OpenAI内の緊張の高まりを浮き彫りにしている。 研究者らが ChatGPT や DALL-E などの消費者向け AI 製品を実行しながら汎用人工知能の開発を競う中、ライクのような従業員は超インテリジェント AI モデルの作成に伴う潜在的なリスクについて懸念を表明しています。 ライク氏は、チームの優先順位が低くなり、「重要な」作業を実行するためのコンピューティングやその他のリソースを確保できなくなったと述べた。

「私が参加したのは、OpenAI がこの研究を行うのに世界で最適な場所だと思ったからです」とライキ氏は書いています。 「しかし、私はしばらくの間、会社の中核的優先事項についてOpenAIのリーダーシップに同意できず、最終的に限界点に達しました。」

READ  FRBは、彼が5%で稼いだ現金を「盗んだ」グリンチである可能性があります。 パウエルのピボットは投資家にとって何を意味するのでしょうか?