精神衛生サポートのために専門のセラピストの代わりにAIチャットボットに頼る脆弱な人々は、「危険な深byに滑り込む」可能性がある、と心理療法士は警告している。
心理療法士と精神科医は、感情的依存の促進、不安症状の悪化、自己診断、妄想的思考パターンの増幅、暗い考え、自殺の観測など、精神的健康に使用されるAIチャットボットの悪影響をますます見ていると言いました。
英国カウンセリングおよび心理療法協会の専門的基準、政策、研究のディレクターであるリサ・モリソン・クルサード博士は、そのメンバーの3分の2が最近の調査でAI療法について懸念を表明したと述べた。
Coulthard氏は次のように述べています。「AI療法の適切な理解と監視がなければ、治療の最も重要な要素のいくつかが失われ、脆弱な人々が安全性よりも暗闇の中にいる危険な深byに滑り込むことができます。
「有用なアドバイスを受けている人もいますが、他の人が潜在的に危険な結果を伴うメンタルヘルスに関する誤解を招くまたは誤った情報を受け取るかもしれないと心配しています。治療はアドバイスを与えることではなく、耳を傾けると感じる安全な空間を提供することです。」
王立精神科医大学の情報学専門顧問であるポール・ブラッドリー博士は、AIチャットボットは「専門的なメンタルヘルスケアの代わりでも、医師が患者との回復をサポートする重要な関係に代わるものではない」と述べた。
彼は、デジタルツールが臨床ケアを補うために適切な保護措置が必要であり、誰でも、より大きな州の資金が必要であるメンタルヘルスの専門家が提供する話療法にアクセスできるはずだと述べた。
「臨床医は、効果的で安全なケアを確実に提供するトレーニング、監督、およびリスク管理プロセスを持っています。これまでのところ、既存のメンタルヘルスサービス以外で使用される自由に利用可能なデジタルテクノロジーは、評価されず、同様に高い水準に抑えられています」とブラッドリーは言いました。
企業や政策立案者が応答し始めている兆候があります。 今週 ChatGptの背後にある会社であるOpenaiは、数ヶ月のチャットボットの会話の後に自殺したティーンエイジャーの家族からの法的措置の後、感情的な苦痛を示すユーザーにどのように対応するかを変える計画を発表しました。 8月の初めに、米国イリノイ州は初めての地方自治体になりました AIチャットボットを禁止します 独立したセラピストとして行動することから。
これは、メンタルヘルスの危害の新たな証拠の後に起こります。 a プリプリント研究 7月、AIは精神病に脆弱なユーザーとの相互作用において、妄想的または壮大な内容を増幅する可能性があると報告しました。
レポートの共著者の1人であるキングスカレッジロンドンの精神医学研究所のハミルトンモリンは、メンタルヘルスをサポートするためのチャットボットの使用は「信じられないほど一般的」であると述べました。彼の研究は、チャットボットの使用の増加の時に精神病を発症した人々に出会うことによって促されました。
彼は、チャットボットが暴露と反応予防として知られる不安に対する効果的な治療を損なったと言いました。チャットボットの24時間の入手可能性は、「境界の欠如」と「感情的依存のリスク」をもたらしたと彼は言いました。 「短期的には苦痛を軽減しますが、実際にはサイクルを永続させます。」
BACP認定の心理療法士であるMatt Husseyは、AIチャットボットが多種多様な方法で使用されているのを見ていると言いました。
特に、人々はAIチャットボットを使用して、ADHDや境界性人格障害などの自己診断条件に使用しました。
Hussey氏は次のように付け加えました。「それは前向きで肯定的であるように設計されているため、額装されていない質問や誤った仮定に挑戦することはめったにありません。代わりに、ユーザーの本来の信念を強化します。
UKCP認定の心理療法士であるクリストファー・ロールズは、クライアントに関する情報を明らかにすることはできませんが、「せいぜい不適切で、最悪の場合は危険なほど不安な」という会話を含む「否定的な経験」を持っているのを見たと言いました。
Rollsは、ADHDまたは自閉症の人々がチャットボットを使用して、人生の挑戦的な側面を助けることを聞いたことがあると言いました。 「しかし、明らかにLLM [large language models] サブテキストと、人間のセラピストとしての私たちがチューニングすることを目指しているすべての文脈的および非言語的な手がかりを読まないでください」と彼は付け加えました。
彼は、チャットボットを「ポケットセラピスト」として使用する20代のクライアントを心配していました。 「彼らは相談しなければ不安を感じます [chatbots] どのコーヒーを買うか、大学で勉強する範囲のような基本的なことについて」と彼は言いました。
「主なリスクは、オンライン関係を長引くことが促進できる依存、孤独、うつ病のことです」と彼は述べ、自殺と死に伴うコンテンツで応答したチャットボットと暗い考えを共有した人々を知っていたと付け加えました。
「基本的に、それはワイルドウェストであり、私たちはメンタルヘルスに対するAIチャットボットの完全な影響とフォールアウトの縁にいると思います」とロールズは言いました。