5月 8, 2024

FUTSALNET

日本からの最新ニュースと特集:ビジネス、政治、解説文化、ライフ&スタイル、エンターテインメント、スポーツ。

生成型 AI が医療分野に登場しますが、誰もがそれを喜んでいるわけではありません

生成型 AI が医療分野に登場しますが、誰もがそれを喜んでいるわけではありません

画像クレジット: ナデジダ・フェドロノワ/ゲッティ/ゲッティイメージズ

画像、テキスト、オーディオ、ビデオなどを作成および分析できる生成 AI は、大手テクノロジー企業や新興企業からの支援を受けて、ますますヘルスケア分野への進出が進んでいます。

Google のクラウド サービスおよび製品部門である Google Cloud は、患者の摂取エクスペリエンスをパーソナライズするように設計された生成 AI ツールに関して、ピッツバーグに本拠を置く非営利ヘルスケア会社 Highmark Health と協力しています。 AmazonのAWS部門は、分析に生成AIを使用する方法について匿名の顧客と協力していると述べた 「健康の社会的決定要因」に関する医療データベース。 Microsoft Azure は、患者から介護者に送信されるメッセージを自動的に分類する非営利医療ネットワークである Providence の生成 AI システムの構築を支援しています。

ヘルスケア分野の注目すべき AI スタートアップには、医師向けの生成 AI アプリケーションを開発している Ambience Healthcare が含まれます。 Nabla、医師向けアンビエント AI アシスタント。 Abridge は、医療文書の分析ツールを作成しています。

生成 AI に対する広範な熱意は、医療を対象とした生成 AI への取り組みへの投資に反映されています。 ヘルスケア関連の新興企業における生成 AI は、これまでにベンチャーキャピタルで数千万ドルを調達しており、医療投資家の大多数は生成 AI が大成功を収めたと述べています。 とても大きな影響を受けました 彼らの投資戦略。

しかし、医療に焦点を当てた生成 AI がゴールデンタイムに向けて準備が整っているかどうかについては、専門家も患者も意見が分かれています。

生成 AI は人々が望むものではないかもしれない

デロイトの最新調査、アメリカの消費者の約半数 (53%) だけが、生成 AI がヘルスケアを改善できると考えています。たとえば、医療を利用しやすくしたり、予約の待ち時間を短縮したりできます。 生産性の高い AI によって医療がより手頃な価格になると期待していると答えたのは半数未満でした。

米国最大の退役軍人医療システムであるバージニア・サンシャイン・ヘルスケア・ネットワークの最高人工知能責任者、アンドリュー・ボルコウスキー氏は、この悲観論には根拠がないと考えている。 ボルコウスキー氏は、生成型 AI には「重大な」制限があり、その有効性についての懸念があるため、導入は時期尚早である可能性があると警告しました。

「生成 AI の主な問題の 1 つは、複雑な医療クエリや緊急事態に対処できないことです」と同氏は TechCrunch に語った。 「その知識ベースが限られている、つまり最新の臨床情報が存在しないことと、人間の経験が不足しているため、包括的な医学的アドバイスや治療の推奨を提供するのには適していません。」

多くの研究は、これらの点が有効であることを示しています。

JAMA Pediatricsに掲載された論文の中で、OpenAIのAI生成チャットボットChatGPTは、一部の医療機関が限られたユースケースで試験的に導入していると述べている。 間違いが見つかった 症例の83%で子供の病気が診断されます。 そして、 テスト 診断アシスタントとして OpenAI の GPT-4 を使用すると、ボストンのベス イスラエル ディーコネス メディカル センターの医師らは、このモデルが 3 回中 2 回近く間違った診断を最初の答えとして分類したと指摘しました。

今日の生成型 AI は、医師の日常のワークフローに不可欠な医療管理業務にも苦労しています。 患者の健康記録の要約やメモの検索などの作業を AI がどの程度うまく実行できるかを評価するための MedAlign のベンチマークでは、 GPT-4 は 35% のケースで失敗します

OpenAI およびその他の多くの生成 AI ベンダー 彼らはモデルに頼って医学的アドバイスを求めないよう警告している。 しかしボルコウスキー氏らは、もっとできることがあると言っている。 「医療分野で生成 AI のみに依存すると、誤った診断、不適切な治療、さらには生命を脅かす状況につながる可能性があります」とボルコウスキー氏は述べた。

デュイスブルク・エッセン大学の人工知能医学研究所で AI 誘導療法を主導し、新興テクノロジーの患者ケアへの応用を研究しているヤン・エッガー氏も、ボルコウスキー氏の懸念を共有している。 同氏は、現時点で医療分野で産科 AI を安全に使用できる唯一の方法は、医師の厳重な監督と監視の下にあると考えています。

「結果は完全に間違っている可能性があり、これを認識し続けることがより困難になります」とエッガー氏は語った。 「確かに、生成 AI は退院届の事前作成などに使用できますが、医師にはそれを確認して最終決定を下す責任があります。

生成型 AI は固定観念を永続させる可能性がある

医療における生成型 AI が誤った方向に進む可能性がある特に有害な方法の 1 つは、固定観念を永続させることです。

スタンフォード医学の2023年の研究では、研究者チームは腎機能、肺活量、皮膚の厚さに関する質問についてChatGPTやその他のAI生成チャットボットをテストした。 共著者らは、ChatGPTの回答が間違っていることが多いだけでなく、その回答には黒人と白人には生物学的な違いがあるという長年信じられてきた誤った信念が数多く含まれていることを発見した。この誤った信念は、医療提供者が健康問題を誤診する原因となることが知られている。 。

皮肉なことに、医療分野で生成 AI によって差別される可能性が最も高い患者は、それを使用する可能性が最も高い患者でもあるということです。

医療保険に加入していない人々 – 有色人種は主にKFF の調査によると、医師やメンタルヘルスのサポートを見つけるなどの目的で生成 AI を試してみる意欲が高いことが、デロイトの調査で明らかになりました。 AI の推奨事項が偏見に汚染されている場合、治療の不平等がさらに悪化する可能性があります。

しかし、一部の専門家は、この点において生成 AI は改善されていると主張しています。

2023 年後半に発表されたマイクロソフトの調査では、 研究者らは90.2%の精度を達成したと述べた。 GPT-4 を使用した 4 つの困難な医療ベンチマークについて。 バニラ GPT-4 ではこの結果に達することができませんでした。 しかし、研究者らは、特定の出力を生成する GPT-4 のベクターを設計するラピッド エンジニアリングを通じて、モデルの結果を最大 16.2 パーセント ポイント向上させることができたと述べています。 (Microsoft が OpenAI の主要な投資家であることは注目に値します。)

チャットボットを超えて

しかし、生成 AI が役立つのはチャットボットに質問することだけではありません。 一部の研究者は、医療画像処理は生成 AI の力から大きな恩恵を受ける可能性があると述べています。

7月に科学者のグループがcと呼ばれるシステムを発表した。Nature に掲載された研究による、臨床ワークフローの統合ベースの延期 (CoDoC)。 このシステムは、医療画像専門家が診断において従来の技術ではなく AI に頼るべき場合を理解できるように設計されています。 共著者らによると、CoDoC は臨床ワークフローを 66% 削減し、専門医よりも優れたパフォーマンスを示しました。

そして11月には、 中国の実験研究チーム パンダ、X 線で潜在的な膵臓病変を検出するために使用される人工知能モデル。 ある 研究で示されたのは、 PANDA はこれらの病変を分類する際に細心の注意を払う必要があり、外科的介入には発見が遅すぎることがよくあります。

実際、オックスフォード大学の臨床研究員であるアルン・ティルナブカラス氏は、医療現場での導入を妨げるような生成型 AI について「ユニークな点は何もない」と述べています。

「生成 AI テクノロジーのより日常的な応用が可能です」 短期および中期的には、テキストの修正、メモや手紙の自動文書化、電子患者記録を改善するための検索機能の改善などが含まれます。 「生成 AI テクノロジーが効果的であれば、導入できない理由はありません。」 このようなタイプの役割はぴったりです。

「厳密な科学」

しかし、生成 AI は医学の特定の狭い分野で有望である一方で、ボルコウスキー氏のような専門家は、生成 AI が汎用の補助医療ツールとして有用かつ信頼できるようになるには、技術的およびコンプライアンスのハードルを克服する必要があると指摘しています。

「医療における生成 AI の使用には、プライバシーとセキュリティに関する重大な懸念があります」とボルコウスキー氏は述べた。 「医療データの機密性とその誤用または不正アクセスの可能性は、患者の機密性と医療システムに対する信頼に重大なリスクをもたらします。さらに、医療における生成 AI の使用を取り巻く規制および法的状況は依然として進化しています。責任、データ保護、および人間以外の主体による医療行為に関連する疑問は解決される必要があります。

医療における生成 AI について楽観的なティルナフカラス氏でさえ、患者向け​​ツールの背後には「ハードサイエンス」があるべきだと述べています。

「特に直接的な医療監督がなければ、患者と向き合う産科 AI の導入を正当化するには、臨床上の利点を示す実用的なランダム化対照試験が必要です」と同氏は述べた。 「大規模導入後の予期せぬ損害を克服するには、健全なガバナンスを推進することが不可欠です。」

世界保健機関は最近、医療における生成型 AI に対するこの種の科学と人間による監督、および独立した第三者によるこの AI の監査、透明性、影響評価の導入を求めるガイドラインを発行しました。 世界保健機関がガイドラインで概説している目標は、医療用生成 AI の開発への多様な人々の参加を奨励し、プロセス全体を通じて懸念を表明し意見を提供する機会を奨励することです。

「懸念が適切に対処され、適切な安全策が講じられるまで、医療 AI の広範な導入は…患者と医療業界全体に有害となる可能性があります」とボルコウスキー氏は述べた。

READ  セールスフォースのマーク・ベニオフは、さらなるレイオフの可能性をほのめかしている