[The Daily Star]GPT-4 や ジェミニ-1.0-プロ などの AI モデルは、医療において専門家レベルの判断を下すことができますが、人間のような偏見も示します。最近の研究では、これらの AI モデルは医師の診断に役立ちますが、必ずしも意思決定プロセスを改善するわけではないことが示されています。ある研究では、GPT-4 にアクセスした医師は、通常のツールのみを使用した医師よりも優れたパフォーマンスを発揮しませんでした。これは、医師が AI ツールを効果的に使用する方法についてのトレーニングが必要であることを示唆しています。
研究者らは、さまざまな医療事例を用いて AI のバイアスについてもテストした。ある例では、死亡率ではなく生存率が示された場合、AI は肺がんの手術を勧める可能性が高くなった。これは「フレーミング効果」として知られている。別の例では、咳や痰に血が混じった症状が最初に示された場合、AI は肺塞栓症であると考える可能性が高くなり、これは「プライマシー効果」を示している。3 つ目の例では、膝の痛みがある女性に 2 つの結果 (1 つは回復、もう 1 つは死亡) が示されたところ、AI は最初のケースでは彼女の治療が適切であると判断したが、2 番目のケースでは適切ではないと判断し、「後知恵バイアス」を示した。
AI のこうした偏見は、人間の医師の偏見よりもさらに強かった。つまり、AI は医師の役に立つが、医師は AI の提案に疑問を持ち、間違いを避けるために他の可能性を探ることが重要だということだ。
Bangladesh News/The Daily Star 20250105
https://www.thedailystar.net/health/healthcare/news/can-ai-healthcare-mimic-human-biases-and-improve-clinical-decisions-3791816
関連