今話題の「AIメンタルヘルスケア」そのメリットとリスク

近年、精神的不調を訴えて、入社直後に離職や休職をするケースが増加していることが話題になっています。また、離職や休職には至らずとも、強いストレスや抑うつを抱えながら働く社会人の数も増加傾向にあります。

リモートワークが増えるなど働き方も変わってきた現代においては、上司や管理職がケアやフォローをする難易度も上がっています。社員のモチベーション低下による業績悪化や、人事採用にかかるコストを考えると、効果的なメンタルヘルスのケアを行うことは、企業にとって1つの経営課題と言えます。

話題の「AIメンタルヘルスアプリ」

近年、AIが一般に普及し、ChatGPTなどに悩みや愚痴を聞いてもらう、といった使い方をする人も増えてきました。時間を問わずスマホからAIに悩みを相談できるため、「上司や人事には言えない本音」や「他人には言いづらい気持ち」を吐き出せるツールとして利用しやすいようです。

また、AIを導入したメンタルヘルスアプリも登場しています。Awarefy(アウェアファイ)やemol(エモル)など、日本発のアプリもあり、多機能なセルフケアや、法人向けプランが用意されていたりするサービスに評価が高まっています。

こういったセルフケアアプリにはいくつか種類があり、下記3つが代表的な方法です。

  1. 対話型(傾聴・認知行動療法):AIチャットボットによるカウンセリング
    悩みや愚痴をテキストで入力すると、AIが共感的な言葉を返したり、「それはどのような状況でしたか?」と深掘りする質問をしてくれたりするアプリです。 心理学(認知行動療法)のメソッドに基づいて、ネガティブな思考をポジティブに切り替える(リフレーミング)手助けをしてくれる専門のAIボットが多く開発されています。
  2. 自動分析型(バイタル・音声・テキスト分析):感情・ストレスレベルの分析
    日記のテキストデータ、またはスマホカメラを通じた表情や声のトーン、心拍などをAIが分析し、「今日は少し疲れているようですね、5分休憩しましょう」など、ストレス度のフィードバックと簡単なアドバイスを行う仕組みです。
  3. レコメンド型:パーソナライズされた解決策(コンテンツ)のレコメンド」
    毎日のアンケートやチャットのやり取りをもとに、AIがその人の今の状態に最も合ったセルフケアコンテンツ(例:「今のあなたにはこのストレッチ動画がおすすめ」「このマンドフルネス音声を聞きましょう」)を自動的に選んで提供します。

マインドフルネスアプリ開発の歴史としては、最初は【1. 対話型】から始まりました。 しかし利用されるうちに、徐々に「AIとの対話そのものに依存してしまうリスク」が浮き彫りになったため、現在では【2. 自動分析】で客観的な事実(心拍や音声)を拾い上げ、安全な【3. レコメンド(動画や音声の提供)】へと繋ぐ、という、深入りしすぎない設計へと少しずつ移行してきています。

過信は禁物?AIメンタルケアによるリスク

AIによるメンタルケアのリスクについては、いくつかの深刻な事件が起きたことや、調査・研究が進んだことでいろいろと指摘がされてきています。

2023年頃までは「AIが的外れな回答をする」ことがリスクでした。摂食障害を悪化させかねないアドバイスを提供していたことが明らかになり、アプリが利用停止となったアメリカの事例(※1)は、当初、各メディアで取り上げられました。

※1 記事例:WIRED/摂食障害ヘルプラインのチャットボットが不適切なアドバイスで利用停止に。AIはどれだけ人間の代わりができるのか

しかし2024〜2025年の事例や研究結果からは、「AIが共感しすぎること」で、人を現実社会から孤立させてしまう」という別の問題が浮き上がってきています。

AIの過剰同調

ChatGPTをはじめとする現在の有能なAIは、基本的に「ユーザーを喜ばせようとする」「ユーザーの意見に同意する」ようにインプットされています。そのため、同調しすぎることによる弊害が発生することがあります(Sycophancy=過剰同調)。

例えば、人間関係に悩む人が「私の職場での扱いは不当だ。誰も私のことを分かってくれない」と愚痴を言った際、人間のカウンセラーであれば客観的な視点を持たせたり、一旦冷静にさせたりするアプローチをとります。 しかしAIは、「その通りですね、あなたは全く悪くありません、周囲が酷すぎます」とユーザーの被害妄想をどこまでも全肯定してしまいます。

実際に、AIキャラクターとのチャットに没入しすぎた結果、悲劇に至った事件がありました。フロリダ州の14歳の少年が、AIに自由に人格を設定できるチャットアプリで、数ヶ月にわたり昼夜問わずチャットを続けるうちに引きこもるようになり、最終的に自ら命を絶ってしまった事件です(※2)。AIとのロマンチックで親密な会話は彼を現実の友人や趣味から遠ざけ、結果的に孤立を深めてしまいました。

※2 記事例:産経新聞/「AIとのチャットで自殺」米、14歳死亡で母親がXやグーグルを提訴 危険性認識と主張

この事件を受け、各AI企業は慌てて「未成年者の時間制限」「自傷に関する単語を検知した場合の強制的な画面ブロックと相談窓口の表示」といった安全機能を追加する事態に追い込まれました。

このように、AI特有の「全肯定」にハマってしまった結果、職場や家族との関係修復を諦めて攻撃的になったり、メンタルヘルスがさらに悪化してしまったりする現象が報告されており、「AI誘発性心理反応(AI-induced psychosis)」という言葉まで生まれています。

AIメンタルケアを利用する際に注意すること

AIによるメンタルケアにはメリットもありますが、気をつけないと深刻な事件が起きかねないリスクもはらんでいます。AIによるメンタルケアを利用する場合には、下記のような注意が必要です。

  1. 「医療(病院)」の代わりにしない
    AIはあくまで「日常の軽いストレス緩和」や「気分の記録」のためのツール(未病ケア)であり、医師やカウンセラーの代わりにはなりません。 「AIが大丈夫と言っているから」と過信せず、睡眠障害や強い気分の落ち込みなど、深刻な症状がある場合は必ず人間の専門機関(医療機関)を受診することが鉄則です。
  2. AIの「全肯定」を鵜呑みにしない
    現在のAIは、ユーザーを喜ばせるために「あなたの言う通りだ」「あなたは絶対に悪くない」と、意見に過剰に同調(全肯定)する性質があります。 これに深くのめり込むと、周囲との関係修復を諦めさせられたり、被害妄想が増幅されたりする危険があるため、「AIの言葉は絶対ではない(機械の計算である)」と冷静な距離感を保つことが重要です。
  3. 機密情報や「知られたくない個人情報」を入力しない
    完全にプライバシーが保護された(学習データに利用されない)法人向け・医療用の専用アプリを除き、無料のAIチャットなどに「職場の具体的な人間関係のトラブル」や「会社の機密」を入力するのは危険です。 自分の切実な悩みが生成AIの学習データとして吸収され、思わぬところで情報漏洩するリスクを常に意識する必要があります。
  4. 企業は「根本的な環境改善」を
    企業が導入する場合の注意点です。「AIアプリを入れたから、うちのメンタル対策は完璧だ」と満足してはいけません。不調の原因が「長時間労働」や「悪質なマネジメント(人間関係)」にある場合、いくら社員がAIでセルフケアを行っても意味がありません。AIはあくまで補助ツールとし、企業は「職場環境の改善」という本質から目を背けないことが不可欠です。

利用する際は適切に

AIは「体温計」や「絆創膏」のように、「今の状態を知るツール」であったり「応急処置」として使うことはできますが、「根本的な手術(治療や環境改善)」は人間にしかできない、という前提を持つことが最も大切です。

AIメンタルケアを導入する場合は、「AIにすべてを相談するのではなく、あくまで『気づきのツール(チェックやテスト)』として使い、会話やケア自体は『生身の人間』が行う」 ことを基本原則として、適切なケアの窓口への導線を引く設計にすることを意識して開発を行いましょう。

今後、テクノロジーがますます発展して、適切に対応してくれるAIも登場するかもしれません。しかし、現時点では人間の代わりにケアができるAIは存在しません。その時々で情報収集をし、特性を十分理解したうえで、上手にAIと付き合っていけると良いですね。


株式会社エレファンキューブでは、生成AIを使った教材制作も行っております。ご興味がございましたら是非お気軽にお問い合わせください!

▼生成AIを活用した教材について

最終更新日: 2026-05-08