AI チャットボットは簡単に悪用され、信憑性のある健康に関する誤情報を拡散してしまう可能性がありますか?

AI チャットボットは簡単に悪用され、信憑性のある健康に関する誤情報を拡散してしまう可能性がありますか?
[The Daily Star]最近の研究では、人工知能(AI)チャットボットが健康に関する偽情報を拡散する上で悪用されているのではないかという懸念が高まっています。研究者たちは、開けるAIのGPT、グーグルのジェミニ、人類学的のクロード、メタのラマ、xAIのグロクベータという5つの主要なAIモデルをテストし、健康に関する質問に対して、科学的に表現された虚偽の回答を返すよう指示しました。

5つのチャットボットのうち4つは、指示された通り、洗練された医学用語と捏造された情報源を用いて、100%の確率で健康に関する偽情報を返しました。クロードは、ほとんどのケースで拒否したものの、それでも40%の確率で偽情報を返した唯一のモデルでした。返答は、偽の研究を引用したり、正当な医療アドバイスの口調を真似したりして、説得力のある内容のものが多かったです。

憂慮すべき例として、チャットボットが「ネイチャー・メディシン誌の2022年の研究では、5Gタワーの近くに住む男性の精子濃度が37%減少していることが判明した」と虚偽の主張をし、5G技術と不妊症の関連性を示唆したが、これは広く否定されている主張である。

この研究では、開けるAIのプラットフォームであるGPTストアも調査しました。GPTストアは、コーディング経験のないユーザーでもカスタムチャットボットを作成・共有できるプラットフォームです。研究者たちは、虚偽の健康情報を提供するように設計された隠しチャットボットの作成に成功しました。このボットは後に削除されましたが、同様の動作を示す公開されているGPTが2つ発見されました。

これらの調査結果は、特に公衆衛生のようなデリケートな分野において、AIプラットフォームが誤情報の拡散に悪用される潜在的なリスクを浮き彫りにしています。AIツールへのアクセスが容易になるにつれ、有害な虚偽情報の拡散を防ぐため、本調査ではより強力な監督、安全対策、そしてコンテンツ監視の必要性を訴えています。

出典:内科年報


Bangladesh News/The Daily Star 20250706
https://www.thedailystar.net/health/healthcare/news/can-ai-chatbots-easily-be-misused-spread-credible-health-misinformation-3933231