1774656842
2026-03-27 20:36:00

まとめ

  • 北米放射線学会 (RSNA) の調査によると、ディープフェイク X 線写真のうち、医療専門家によって自発的に検出されたのは 41% のみでした。
  • 人工画像の存在について適切な警告を発した後でも、認識の平均成功率は 75% にとどまりました。
  • トップ LLM (GPT-4o、GPT-5、Gemini 2.5 Pro、Llama 4 Maverick) も同様に、偽の医療画像を特定するのに苦労しており、絶対的な検出率を達成しているモデルはありません。
  • 単純なテキスト プロンプトを通じてリアルなディープフェイクを作成すると、作成に対する技術的な障壁が大幅に低くなります。
  • 人工 X 線は、保険詐欺、法的請求、電子医療記録の改ざんや「汚染」などの大きなリスクをもたらします。
  • 異常に滑らかな骨皮質や誇張された対称性などの最小限の視覚的兆候が、それらを識別する唯一の手がかりです。

マルチモーダル大規模言語モデル (マルチモーダル LLM) の急速な進化により、合成コンテンツの作成および管理の方法に根本的な変化がもたらされました。

ただし、1 つは 新しい研究 北米放射線学会 (RSNA) の論文は、非常に厄介な側面を強調しています。 ディープフェイク それらは現在、非常に進歩しているため、最も訓練を受けた健康科学者と、それらを作成するまさに AI システムの両方を騙します。

この研究は、 Δρ。ミカエル・トルジマン マウントサイナイのアイカーン医科大学のこの論文は、6 か国の経験豊富な放射線科医 17 人が、本物の X 線写真と、X 線写真によって作成された同等の写真を一貫して区別できなかったことを記録しています。 人工知能。研究者らは 264 枚の X 線セットを使用しました。そのうちの半分は本物で、残りは ChatGPT-4o (OpenAI による) と特殊な RoentGen モデルを使用して作成されました。

研究方法は、医師の客観的な能力を測定するために、個別のフェーズに分割されました。最初の段階では、放射線科医は研究の本当の目的を知らずに画像を検査しました。技術的な品質を評価し、異常を特定するように尋ねたところ、人工画像の存在を自発的に認識した人はわずか 41% でした。この特定の発見は、生成されたファイルの危険な可能性を示しています。

第 2 段階では、サンプルに合成 X 線写真が含まれていることを医師に知らされた後、平均識別精度は 75% に向上しました。改善は明らかですが、失敗率 25% は臨床データおよび法的データとしては依然として法外な水準です。個々の医師のパフォーマンスは 58% から 92% まで大きく異なります。興味深いことに、筋骨格系の専門知識を持つ放射線科医の方がわずかに高い認識率を示しましたが、年齢と経験年数(最大 40 年)は成功の決定要因ではありませんでした。

追跡不能は人的要因に限定されません。研究チームは、GPT-4o、GPT-5、Google の Gemini 2.5 Pro、Meta の Llama 4 Maverick という 4 つの主要なマルチモーダル モデルから同じ画像をテストしました。その結果、今日のテクノロジーの限界が確認されました。多くの偽素材の作成に使用された GPT-4o は、85% という最高の成功率を記録しました。対照的に、Google モデルとメタ モデルはそれぞれ 56% と 59% を超えない精度を示し、ランダム選択とほとんど変わらないパフォーマンスを示しました。モデルが自身の作成物を認識するのに 15% 失敗するという事実は、アルゴリズム制御による AI の自己制御の期待を無効にします。

説得力のある医療画像を生成するには深いプログラミング知識と特殊なデータセットが必要だった以前の敵対的生成ネットワーク (GAN) とは異なり、今日のモデルは自然言語で動作します。どのユーザーも、簡単な説明コマンド (たとえば、「成人の肺炎を示す胸部 X 線写真を作成する」) を使用して、解剖学的に正しい画像を取得できます。合成コンテンツ制作ツールのこの民主化は、すでに特定のシステムリスクについて警鐘を鳴らしています。

存在しない骨折や病変を作成すると、虚偽の医学的意見の確立が可能となり、保険会社に対するあからさまな詐欺や人身傷害の不正請求への道が開かれます。さらに、「データポイズニング」のリスクもあります。これらの偽の X 線が医療データの膨大なリポジトリに侵入した場合、診断目的のみに基づいてトレーニングされた将来の機械学習アルゴリズムの信頼性が破壊されます。

専門家らは、訓練された目を必要とするものの、一部の技術的特徴はこれらの画像の合成的な性質を裏切っていると指摘している。偽の X 線写真では、過度に滑らかな骨の表面、不自然で絶対的な対称性、骨折部の不完全な皮質の不連続性、従来の放射線科機械のセンサーでは見られない均一なノイズ パターンが示されることがよくあります。

テックギア提供

彼の研究 シナイ山 それは、人間の視覚が、たとえ最も特殊なものであっても、真実の究極の基準となる地点を私たちが超えていることを十分に証明しています。マルチモーダル モデルの次のバージョンでは、これらの最小限の欠陥さえも排除されるため、「光学的欠陥」による検出に焦点を当てることは負け戦です。解決策は、医師を「画像調査員」に訓練することではなく、ハードウェア自体のアーキテクチャにあります。

透かしシステム (SynthID など) または C2PA (Coalition for Content Provenance and Authenticity) テクノロジーを医療機器 (CT スキャナー、X 線装置) 内に直接広く導入することが必要です。すべての本物の画像には、撮影された瞬間から不変の暗号署名が付けられている必要があり、2026 年のデジタル エコシステムにおけるトレーサビリティを確保します。

#AIは最も経験豊富な放射線科医さえも騙す

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.