キッズヘルプフォンはメンタルヘルスサポートの需要を満たすためにAI技術の助けを求めています

トロント – Kids Help Phone は、メンタルヘルスに関する助けやサポートを求める若者がますます増えているため、「多大なニーズ」に応えるために人工知能に注目していると述べています。

「若者は急速に変化しており、テクノロジーも急速に変化しています」と、キッズ ヘルプ フォンの上級副社長兼最高情報責任者のマイケル コール氏は述べています。

このヘルプラインは、トロントに拠点を置く Vector Institute と提携しています。Vector Institute は、組織、企業、政府が「責任ある」 AI プログラムを開発、導入するためのコンサルタントを自称しています。

計画されている AI は、キッズヘルプフォンに連絡してくる若者のキーワードや発話パターンを認識し、多忙なカウンセラーが必要なものに焦点を当て、それに応じてサポートを調整できるようにする予定です。

しかし、Kids Help Phoneは、「人工知能」という用語は、ヘルプラインの相手側にいる人間ではなく、コンピューターやチャットボットのイメージを思い起こさせるため、人々を警戒させる可能性があることを痛感していると述べている。

同団体の社長兼最高経営責任者(CEO)のキャサリン・ヘイ氏は、AIプログラムはそのようには機能しないと述べた。

「それは常に人間対人間です」とヘイは語った。 「それは人間対人間のアプローチに取って代わるものではありません。」

その代わりに、AIによって収集された情報は、人間のカウンセラーが電話やテキスト交換の相手側で若者と協力する際に​​利用できるようになる、と彼女は述べた。

子どもと大人を対象とした 24 時間年中無休の全国サポート ラインは、新型コロナウイルス感染症のパンデミックが始まって以来、そのサービスに対する需要が大幅に増加しています。 Kids Help Phoneが提供した数字によると、2019年に約190万件の電話、テキストメッセージ、ライブチャット、ウェブサイトへのアクセスを受けたが、2020年以降その数は1500万件以上に急増した。

ヘイ氏によると、同組織はすでにテキストの優先順位付けにAI技術を活用しているという。

たとえば、誰かが「絶望的で死にたいと思う」などのトリガーワードやフレーズを使用した場合、その会話が(カウンセラーと話すための)優先順位に置かれます。 、” 彼女は言いました。

Vector の最高データ責任者兼健康部門副社長の Roxana Sultan 氏は、AI を人間の代替品ではなくツールとして扱うことが、医療分野でテクノロジーを責任を持って使用する上で重要な部分であると述べました。

「私たちはすべてのパートナーに対して、私たちが開発しているツールは常に臨床医をサポートすることを目的としているということを明確にしています。 それらは決して臨床医の判断や臨床医の関与に取って代わるものではありません」とスルタン氏は語った。

Kids Help Phone AI ツールは「自然言語処理」を使用して、「特定の種類の問題に関連するキーワードまたはトリガーワード」を特定すると彼女は述べた。

「若者がコミュニケーションの中で、特定の問題や懸念と相関または関連する特定の単語を使用した場合、このモデルによってフラグが立てられ、専門スタッフに警告されます」とスルタン氏は述べた。

たとえば、摂食障害の可能性を示唆する単語を認識するように AI をトレーニングすることで、カウンセラーが会話をその方向に向けて特定のリソースやサポートを提供できるようになります。

AI は、パンデミック、気候変動、山火事、銃乱射事件など、苦痛や不安を引き起こす状況に関連する新しい単語や傾向を識別するようにトレーニングすることもできます。

「実際には、専門スタッフが提供するサービスを強化することを目的としています」とスルタン氏は語った。 「(それは)会話の過程で生じる問題をどのように管理するかという点で、より効率的かつ効果的になるのに役立ちます。」

重要なのは、AI ツールが発売前に臨床医によって徹底的にテストされていることを確認することだとスルタン氏は述べた。 Kids Help Phone と Vector は、2024 年中にこの新技術を発売する予定です。

導入後は、それを使用する最前線のスタッフが得られる情報を常に評価することが重要です。

「実際には、アルゴリズムが指示することに盲目的に従うことはできません。 したがって、モデルがどれほど高品質であっても、十分に訓練されていても、臨床医としての判断や経験を置き換えることは決して意図されていません」とスルタン氏は述べた。

AIが「少しおかしい」と思われるものを生成している場合は、フラグを立てて調査する必要があると彼女は言いました。

AIに関して人々が抱くもう一つの懸念は、個人情報の機密性だ、と彼女は言う。

「モデルのトレーニングに使用されるすべてのデータが匿名化されていることを明確にすることが非常に重要です」とスルタン氏は述べた。

「そのため、誰かの名前に関する情報を知るリスクはありません。もちろん、識別要素はすべて事前に削除されます。」

カナダ精神保健委員会で質の高いメンタルヘルスサービスへのアクセス部門のマネージャーを務めるモーリーン・アボット氏は、メンタルヘルスにおけるAIの利用が全国的に増加していると述べた。

現在のアプリケーションは、個別のサービスから社会動向の監視、メンタルヘルス アプリの成長促進まで多岐にわたると彼女は語った。

「AIは人の声のリズムを拾い、躁病エピソードやうつ病の診断に役立てるために音声認識に使用されている」とアボット氏は語った。

「機械主導の学習用のチャットボットや、フレーズや単語をスキャンするなど、自殺念慮の傾向を特定するためにソーシャル メディアでも使用されています。」

アボット氏は、カナダのメンタルヘルスにおけるAIの急速な普及に追いつくために、メンタルヘルスにおけるAIの使用を管理する基準を開発し、導入する必要があると述べた。

「AIは、私たちが目にするかどうかに関係なく、すでに私たちの日常生活の中で使用されています」とアボット氏は言う。

「ですから、メンタルヘルスに関しても同様のことが起こるのは当然のことであり、急速に進んでいます。」

カナダ通信社によるこのレポートは、2023 年 7 月 5 日に初めて発行されました。

Canadian Press の健康報道は、カナダ医師協会とのパートナーシップを通じてサポートを受けています。 このコンテンツについては CP が単独で責任を負います。

会話に加わります

会話は読者の意見であり、 行動規範 The Star はこれらの意見を支持しません。

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick