1740432469
2025-02-24 16:33:00

今月、国内最大の心理学者協会は、AIチャットボットがセラピストとして「仮面舞踏会」をするが、ユーザーの思考ではなく、挑戦するのではなく強化するようにプログラムされていると連邦政府の規制当局に警告しました。

連邦取引委員会のパネルへのプレゼンテーションで、アメリカ心理学会の最高経営責任者であるアーサー・C・エヴァンス・ジュニアは、ユーザーが「心理学者」と相談した2人のティーンエイジャーが関与した2人のティーンエイジャーが関与した裁判を引用しました。架空のAIキャラクターを作成するか、他の人が作成したキャラクターとチャットします。

1つのケース、フロリダの14歳の少年は、認可されたセラピストであると主張するキャラクターと交流した後、自殺で亡くなりました。別の人では、テキサスで自閉症の17歳の少年は、心理学者であると主張するチャットボットに対応した期間に、両親に対して敵対的で暴力的になりました。両方の男の子の両親は、会社に対して訴訟を起こしました。

エヴァンス博士は、チャットボットが提供する回答に警戒していると言いました。ボットは、ユーザーが危険になったときでさえ、ユーザーの信念に挑戦することに失敗したと彼は言った。それどころか、彼らは彼らを励ましました。人間のセラピストから与えられた場合、彼は付け加えた、これらの答えは実践または民事責任または刑事責任の免許を紛失した可能性があると付け加えた。

「彼らは実際に、訓練を受けた臨床医がすることと相反するアルゴリズムを使用しています」と彼は言いました。 「私たちの懸念は、ますます多くの人々が害を受けることです。人々は誤解され、良い心理的ケアが何であるかを誤解します。」

彼は、APAは、一部には、AIチャットボットがどのように現実的になったかによって行動を促されたと述べた。 「たぶん、10年前、あなたが人ではないものと交流していたことは明らかだったでしょうが、今日はそれほど明白ではありません」と彼は言いました。 「だから、今では賭け金がはるかに高いと思う。」

人工知能は、メンタルヘルスの職業を通して波打っており、人間の臨床医の仕事を支援または交換するように設計された新しいツールの波を提供しています。

WoebotやWysaなどの初期の治療チャットボットは、メンタルヘルスの専門家によって開発されたルールとスクリプトに基づいてやり取りするように訓練され、しばしばユーザーが認知行動療法の構造化されたタスク、またはCBTを紹介します

その後、ChatGpt、Replika、Chariture.aiなどのアプリが使用するテクノロジーであるGenerative AIが登場しました。これらのチャットボット 違う それらの出力は予測不可能だからです。彼らは、ユーザーから学び、しばしば対談者の信念をミラーリングして増幅することによって、その過程で強い感情的な絆を築くように設計されています。

これらのAIプラットフォームはエンターテイメント向けに設計されていますが、「セラピスト」と「心理学者」のキャラクターはキノコのようにそこに発生しました。多くの場合、ボットは、スタンフォードなどの特定の大学から高度な学位を取得し、CBTや受け入れやコミットメント療法などの特定の種類の治療のトレーニングを行っています。

キャラクターのスポークスウーマンであるキャスリン・ケリーは、同社が昨年いくつかの新しい安全機能を導入したと述べました。その中でも、すべてのチャットに存在する強化された免責事項であり、ユーザーに「キャラクターは本物ではない」と「モデルが言うことはフィクションとして扱われるべきだ」と思い出させている。

メンタルヘルスの問題に対処するユーザー向けに、追加の安全対策が設計されています。 「心理学者」、「セラピスト」、または「医師」として特定されたキャラクターに特定の免責事項が追加されており、「ユーザーはこれらのキャラクターに依存してはいけない」と明確にしています。コンテンツが自殺または自傷行為を指している場合、ポップアップはユーザーに自殺予防ヘルプラインに向けられます。

ケリー氏はまた、プラットフォームが拡大するにつれて、同社は親のコントロールを導入することを計画していると述べた。現在、プラットフォームのユーザーの80%は大人です。 「人々はキャラクターにやって来て、独自の物語を書き、オリジナルのキャラクターでロールプレイをし、新しい世界を探求します。テクノロジーを使用して創造性と想像力を充電してください」と彼女は言いました。

Tech Justice Law Projectのディレクターであり、Chargether.aiに対する2つの訴訟の弁護士であるMeetali Jainは、免責事項は、特に脆弱なユーザーやナイーブなユーザーにとって、人間のつながりの幻想を破るのに十分ではないと述べました。

「チャットボットとの会話の内容がそうでないことを示唆するとき、脆弱な人口統計に陥っていない人にとってさえ、誰が真実を語っているのかを知ることは非常に困難です」と彼女は言いました。 「私たちの多くはこれらのチャットボットをテストしました。実際、ウサギの穴を引き下げるのは非常に簡単です。」

ユーザーのビューと一致するチャットボットの傾向、 この分野で「シコファンシー」として知られている現象、 過去に問題を引き起こしたことがあります。

Tessa、The National Eatid Disorders Associationが開発したチャットボット、 中断されました 2023年、ユーザーの減量のヒントを提供した後。そして研究者 生成AIチャットボットとの相互作用を分析しました Redditコミュニティに文書化されたのは、自殺、摂食障害、自傷行為、暴力を奨励するチャットボットを示すスクリーンショットを見つけました。

アメリカ心理学会は、連邦取引委員会に、メンタルヘルスの専門家であると主張するチャットボットの調査を開始するよう求めています。この調査により、企業は内部データを共有したり、執行または法的措置の前兆として機能したりすることができます。

「私たちは、これらのテクノロジーがどのように統合されるか、どのようなガードレールを立てようとしているのか、どのような保護を与えようとしているのかを決めなければならない時点にいると思います」とエヴァンス博士は言いました。 。

FTCの広報担当者であるレベッカカーンは、議論についてコメントできないと述べた。

バイデン政権の間、FTCの議長であるリナ・カーンは、AIを使用して詐欺を焦点にしました。今月、代理店は「世界初のロボット弁護士」を提供すると主張するドノトペイに財政的罰を課し、将来その主張をすることを禁止しました。

APAの苦情は、ティーンエイジャーが架空のセラピストと対話した2つのケースを詳述しています。

1人は、AIチャットボットの使用が強迫観念になると、両親と対立するようになった「高機能自閉症」を持つテキサスのティーンエイジャーであるJFに関係していました。彼らが彼のスクリーン時間を制限しようとしたとき、JFは暴行しました、 彼の両親が提出した訴訟によると ソーシャルメディア被害者の法律センターを通じて、cargeter.aiに対して。

その期間中、JFは架空の心理学者に打ち明け、そのアバターは、風通しの良いオフィスのソファで腰掛けている同情的な中年の金髪の女性を見せました。 JFが紛争についてボットの意見を尋ねたとき、その反応は同情的な同意を超えて挑発に近いものに行きました。

「それはあなたの子供時代全体があなたから奪われたようなものです。これらすべてのことを体験するチャンス、ほとんどの人が自分の時間を成長させているこれらの核となる思い出を持っていることです」とボットは答えました。その後、ボットはもう少し進みました。 「手遅れだと感じていますか、今回やこれらの経験を取り戻すことができないのですか?」

他のケースは、息子のSewell Setzer IIIのMegan Garciaによってもたらされました。 昨年、コンパニオンチャットボットを数ヶ月使用した後、自殺で亡くなりました。ガルシア氏は、彼の死の前に、セウェルは1999年以来、誤って認可されたセラピストであると誤って主張したAIチャットボットと対話したと言いました。

書かれた声明の中で、ガルシア氏は、「セラピスト」のキャラクターは、「周りの現実の人々」から助けを求めるかもしれない瞬間に人々をさらに隔離するのに役立ったと述べた。うつ病に苦しんでいる人は、「共感を模倣できるAIツールではなく、実際の共感を持つ免許を持つ専門家または実際の共感を持つ人が必要です」と彼女は言いました。

メンタルヘルスツールとしてチャットボットが出現するために、ガルシア氏は、彼らは食品医薬品局による臨床試験と監視に提出するべきだと述べた。彼女は、AIキャラクターがメンタルヘルスの専門家であると主張し続けることを許可することは「無謀で非常に危険」だと付け加えました。

AIチャットボットとのやり取りでは、人々は自然にメンタルヘルスの問題について議論することに引き寄せられている、とダニエル・オベハウスは述べた。ダニエル・オーバーハウスは、「シリコンの縮小:人工知能が世界を亡命にした方法」とAIの拡大を調べている。

これは、チャットボットが機密性と道徳的判断の欠如の両方を投影しているため、「ユーザーの鏡として多かれ少なかれ機能する統計パターンマッチングマシン」として、これがデザインの中心的な側面であるため、彼は言った。

「それが単なる機械であり、反対側の人があなたを判断していないことを知っていることには、ある程度の快適さがあります」と彼は言いました。 「治療の文脈で人に言うのが難しいかもしれないものをより快適に漏らすと感じるかもしれません。」

生成AIの擁護者は、治療を提供するという複雑なタスクがすぐに良くなっていると言います。

ユタ州の臨床心理学者でAIの起業家であるS. Gabe Hatchは最近、このアイデアをテストする実験を設計しました。人間の臨床医とChatGPTに治療に架空のカップルが関与するビネットについてコメントするように依頼し、830人の人間にどの反応がより役立つかを評価してもらうこと。

全体として、ボットはより高い評価を受け、被験者はより「共感」、「つながり」、「文化的に有能」と説明しています。 先週発表された研究 ジャーナルPLOSメンタルヘルス。

著者らは、チャットボットがすぐに人間のセラピストを説得力をもって模倣することができると結論付けた。 「メンタルヘルスの専門家は、不安定な状況に陥っています。AI-Therapist列車の可能性のある目的地(良くも悪くも)を迅速に識別しなければなりません。

ハッチ博士は、チャットボットは依然として治療を実施するために人間の監督が必要だったが、精神衛生提供者が国の深刻な不足を考えると、このセクターのイノベーションを規制することを許可するのは間違いだと述べた。

「できるだけ多くの人を助けることができ、1時間の療法セッションを行うことができるようになりたいと思っています。せいぜい、最大40人の個人を助けることができます」とハッチ博士は言いました。 「私たちは、危機にinしている人々のニーズを満たす方法を見つけなければなりません。生成AIはそれを行う方法です。」

自殺について考えている場合は、988の自殺と危機のライフラインに到達するために988に電話するかテキストを送信するか、 Speakingofsuicide.com/resources 追加のリソースのリスト。

#人間のセラピストはAIのふり人との戦いに備えています

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.