ELLの足跡

人は最後は一人だという…でも、…今は妻が傍にいてくれる…

チャットボットの多くはユーザーを肯定して会話継続に重きを置く設計のためセラピストとしての代替手段にはなり得ない!?

チャットボットイメージ


チャットボットメンタルヘルスねない!!
セラピストの代替手段にはならない!!

資格を持ってると主張するボットを信用しない!!
チャットボットイメージ
 6月、米消費者連盟(CFA)と約20の団体が、米連邦取引委員会(FTC)および州の司法長官・規制当局に対し、キャラクターベースの生成AIプラットフォームを通じて無免許の医療行為を提供しているAI企業を調査するよう正式に要望し、MetaとCharacter.AIを名指ししたようです。
 幅広いデータで訓練された大規模言語モデル(Large Language Model) チャットボットの進歩には目を見張るものがあります。
 しかし乍ら、チャットボットが予測不能な振る舞いをすることがあるようで、これらのツールの普及が進んできた数年間だけでも、チャットボットが自傷や自殺を促したり、依存症に苦しむ人に再び薬物使用を勧めたりした重大な事例が起きているようです。

 この大規模言語モデルは数学やコーディングが得意で、自然な文章やリアルな動画を生成する能力も向上していて、会話にたけているが、AIモデルと信頼できる人間との間には決定的な違いがあるということを理解しておくことが必要ということです。

 先程の米消費者連盟(CFA)の要望書で特に問題視されているのは、それらのボットがメンタルヘルスケアを提供する訓練を受けて資格も持っていると言うことが多いが、実際にはまったくメンタルヘルスの専門家ではないということです。

 スタンフォード大学の研究者の研究では、チャットボットはセラピー目的の利用者に対し、イエスマン的(追従的)に振る舞いがちであることが示されたらしく、良質なメンタルヘルスケアには、支援と問題や状況に正面から向き合うという直面化(コンフロンテーション)の両方が含まれるとのことです。

 要は、メンタルヘルスケアが必要ならば、訓練を受けた専門家(セラピスト、心理学者、精神科医)を探すことが優先順位の第一位だということのようですね。

 メンタルな部分というのは、己自身でも己を律すること難しいのですが・・・やはり人の内なる部分は人じゃなきゃ解らないと思いたいです。

 

にほんブログ村 PC家電ブログ パソコンの豆知識へパソコンランキング