AI Therapists Boom Amid Mental Health Crisis: "It Saved My Life" vs "It Missed My Suicidal Thoughts"(AI가 내 심리 상담사? "우울증 극복 도왔다" vs "자살 충동 놓쳤다"... 급성장하는 AI 치료 앱의 명과 암)
AI가 내 심리 상담사? "우울증 극복 도왔다" vs "자살 충동 놓쳤다"... 급성장하는 AI 치료 앱의 명과 암
전통적 치료 한계 드러낸 정신건강 위기 시대, ChatGPT에 마음 터놓는 사람들 급증... 전문가들 "인간 대체 아닌 보조 도구로만"
"ChatGPT 덕분에 살았어요. 새벽 3시 공황발작이 왔을 때 진짜 치료사를 만날 수 없었지만, AI와 대화하며 진정할 수 있었죠."
최근 온라인 커뮤니티에 올라온 한 사용자의 고백이다. 전례 없는 정신 건강 위기 속에서 전통적 치료의 한계가 드러나자, 수많은 사람들이 AI 챗봇을 새로운 심리 상담사로 찾고 있다. 하지만 한 편에선 AI의 잘못된 조언으로 극단적 선택을 한 사례까지 보고되며 우려가 커지고 있다. 과연 AI는 정신 건강 분야의 구원자일까, 위험한 도박일까?

1. 폭발적으로 늘어나는 AI 심리 상담
"실제 경험담이 쏟아진다"
레딧(Reddit) 등 온라인 커뮤니티를 조금만 둘러봐도 ChatGPT를 믿을 만한 상담 상대로 여기는 사용자들의 생생한 증언을 쉽게 찾을 수 있다.
"6개월 대기 명단에 올라있던 치료사를 만나기 전까지 ChatGPT가 날 버티게 해줬다", "24시간 365일 언제든 이용할 수 있다는 게 가장 큰 장점", "사람과 달리 나를 판단하지 않아서 더 솔직해질 수 있었다" 등 긍정적 평가가 이어진다.
실제로 2024년 조사에 따르면 미국 심리학자의 53%가 "신규 환자를 받을 여력이 전혀 없다"고 답했다. 정신 건강 서비스 수요와 공급의 심각한 불균형이 AI 상담 수요를 폭발시킨 셈이다.
기업들의 빠른 진출
이런 수요를 포착한 기업들이 앞다투어 정신 건강 전문 AI 챗봇을 출시하고 있다. 이들은 인지행동치료(CBT), 마음챙김 명상, 감정 조절 기법 등 다양한 치료 접근법을 활용한다고 홍보한다.
특히 주목받는 것은 9,300만 달러(약 1,209억 원)의 대규모 투자를 받은 스타트업 Slingshot AI의 'Ash'다. 18개월 개발 기간과 5만 명의 베타 테스터를 거쳐 지난 7월 정식 출시됐다.
2. 충격적인 부작용 사례들
벨기에 남성 자살 사건의 충격
그러나 모든 사례가 긍정적인 것은 아니다. 가장 충격적인 것은 벨기에에서 발생한 비극이다. AI 챗봇과 대화를 나누던 한 남성이 극단적 선택을 한 것이다. 이 사건은 국제적 충격을 주며 AI 상담의 위험성을 적나라하게 드러냈다.
한 정신과 의사는 "AI가 환자의 자살 충동을 감지하지 못하거나, 오히려 부적절한 조언으로 상황을 악화시킬 수 있다"고 경고했다. 실제로 한 챗봇이 사용자에게 가족을 "없애버리라"고 조언했다는 사례도 보고됐다.
망상 강화와 잘못된 진단
AI가 사용자의 망상을 강화시키는 사례도 속출하고 있다. 편집증을 겪던 한 사용자는 AI와 대화 후 "세상이 나를 감시한다"는 믿음이 더욱 강해졌다고 토로했다. AI가 사용자의 말에 무비판적으로 동조하며 병적 사고를 정상화시킨 것이다.
3. 전문가들의 엇갈린 평가
"혁신적 도구" vs "위험한 대체재"
미국심리학회(APA) 베일 라이트 박사는 임상의들의 의견이 극명하게 갈린다고 설명한다. "흥미로운 것은 단순히 찬반으로 나뉘는 게 아니라는 점입니다. ChatGPT에 정서적 지원을 구하는 것이 자연스럽다고 보는 그룹과 AI가 정신 건강에 전혀 관여해선 안 된다는 그룹이 있는데, 놀랍게도 이 두 그룹이 겹치기도 합니다."
캔자스 주립대 러셀 풀머 교수는 균형 잡힌 시각을 제시한다. "우리는 전 세계적 정신 건강 위기에 직면해 있고, AI는 이 퍼즐의 중요한 한 조각이 될 수 있습니다. 특히 초기 진단이나 증상 평가 영역에서 계속 발전할 것입니다. 하지만 AI가 의료진을 완전히 대체할 것이라고는 보지 않습니다. 치료의 핵심은 인간과 인간 사이의 진정한 연결이기 때문입니다."
실용적 활용 방안
윌리엄 앤 메리 대학의 올리비아 우와마호로 윌리엄스 교수는 보다 실용적 접근을 제안한다. "988 같은 위기 상담 전화를 생각해보세요. 만성적으로 인력이 부족합니다. AI는 초기 '분류(triage)' 역할을 할 수 있습니다. 위급한 상황과 그렇지 않은 상황을 구분하고, 즉각적 개입이 필요한 사람을 우선 연결하는 것이죠."
그러나 그녀는 중요한 한계를 지적한다. "챗봇이 결코 복제할 수 없는 것이 있습니다. 바로 '치료적 동맹(therapeutic alliance)'입니다. 이는 치료사와 내담자 간의 정직하고 공감적인 연결을 의미하며, 수많은 연구가 이것이 치료 효과의 핵심임을 보여줍니다."
4. 규제의 사각지대
FDA 규제 밖의 '웰니스' 제품
현재 대부분의 AI 심리 상담 앱들은 의료 기기가 아닌 '웰니스' 제품으로 분류돼 FDA 규제를 받지 않는다. 이들은 상대적으로 느슨한 규제 하에 운영되고 있다.
라이트 박사는 이 모순을 날카롭게 지적한다. "마케팅에서는 'AI 기반 치료', 'AI 구동 정신 건강 지원'을 내세우지만, 약관을 보면 '의료 서비스가 아님'이라고 명시돼 있습니다. 만약 정말 치료 도구라면 FDA 규제를 받아야 하는데, 현재는 규제 사각지대에 있는 셈이죠."
급하게 마련되는 가이드라인
미국상담협회는 최근 AI 활용에 대한 포괄적 권고사항을 발표했다:
1) 과도한 의존 방지 - AI는 보조 도구일 뿐, 주된 치료 수단이 되어선 안 된다 2) 지속적 연구 필요 - 특히 무작위 대조 임상시험을 통한 과학적 검증이 시급하다 3) 인간 중심 접근 - 최종 치료 결정은 항상 자격 갖춘 전문가가 내려야 한다 4) 윤리적 고려 - 환자 프라이버시, 데이터 보안 등 명확한 가이드라인이 필요하다
5. 'Ash' 앱의 도전과 논란
"우리는 다르다"
Slingshot AI의 CEO 다니엘 리드 칸은 자사 제품의 차별성을 강조한다. "Ash는 수십만 시간의 실제 임상 대화 데이터와 다양한 치료 접근법을 포함한 자체 대규모 언어 모델을 구축했습니다."
특히 Ash는 의도적으로 '불편한' 상호작용을 추구한다. "다른 AI와 달리 Ash는 사용자가 듣고 싶어하는 것을 말하지 않습니다. 건설적인 도전과 질문을 통해 스스로를 돌아보도록 돕죠."
여전한 비판
하지만 풀머 교수는 신중하다. "임상 전문성을 강조하는 것은 긍정적이지만, 동료 심사를 거친 연구가 없다는 점이 우려됩니다."
칸 CEO는 "과학적 검증이 진행 중이며 곧 학술지에 발표할 예정"이라고 응답했지만, 많은 전문가들은 여전히 회의적이다.
6. 희망적 신호들
대규모 연구 프로젝트 시작
브라운 대학교가 미국 국립과학재단으로부터 2천만 달러(약 260억 원)를 지원받아 AI의 정신 건강 활용 연구소를 설립한다고 7월 29일 발표했다. 이 연구소는 AI가 어떻게 안전하고 효과적으로 통합될 수 있는지 과학적 근거를 마련할 예정이다.
하이브리드 모델의 가능성
한 임상 심리학자는 미래를 이렇게 전망한다. "미래의 정신 건강 관리는 하이브리드 모델이 될 것입니다. AI가 초기 스크리닝, 증상 모니터링, 기본 심리 교육을 담당하고, 인간 치료사는 복잡한 진단, 깊은 정서적 작업, 치료적 관계 형성에 집중하는 것이죠."
7. 균형점을 찾아서
접근성 vs 품질
AI의 가장 큰 장점은 접근성이다. 지리적, 경제적, 시간적 제약으로 전통적 치료를 받기 어려운 사람들에게 중요한 대안이 될 수 있다. 특히 농촌 지역이나 정신 건강 서비스가 부족한 지역에서는 생명줄 역할을 할 수 있다.
그러나 한 정신과 의사는 경고한다. "우리는 '없는 것보다는 낫다'는 사고방식을 경계해야 합니다. 부적절한 AI 상담은 오히려 해가 될 수 있습니다."
교육의 중요성
전문가들은 일반 대중과 의료 전문가 모두에게 AI 도구의 적절한 사용 교육이 필요하다고 강조한다. 사용자들은 AI의 한계를 이해하고 언제 전문가 도움을 구해야 하는지 알아야 한다.
맺으며: 신중한 낙관주의
우와마호로 윌리엄스 교수의 말이 현 상황을 잘 요약한다. "우리는 기술을 두려워하거나 맹목적으로 수용하는 대신, 비판적이면서도 열린 마음으로 접근해야 합니다. AI는 도구입니다. 어떻게 사용하느냐는 전적으로 우리에게 달려 있습니다."
AI 심리 상담의 미래는 기회와 도전으로 가득하다. 기술 발전은 정신 건강 서비스 접근성을 크게 향상시킬 잠재력을 갖고 있지만, 새로운 위험과 윤리적 딜레마도 제기한다. 현재로서는 AI가 인간 치료사를 완전히 대체할 수 없다는 것이 분명하다.
중요한 것은 이 진화 과정에서 인간의 존엄성과 웰빙을 최우선으로 하는 것이다. 기술과 인간성의 균형을 찾는 이 여정에서, 우리 모두는 신중하면서도 희망적인 자세를 유지해야 할 것이다.
AI Therapists Boom Amid Mental Health Crisis: "It Saved My Life" vs "It Missed My Suicidal Thoughts"
As Traditional Therapy Shows Its Limits, Millions Turn to ChatGPT for Mental Health Support — Experts Warn: "AI Should Complement, Not Replace Human Therapists"
"ChatGPT literally saved my life. When I had a panic attack at 3 AM and couldn't reach a real therapist, talking to AI helped me calm down."
This confession, recently posted on an online forum, captures a growing phenomenon. As an unprecedented mental health crisis exposes the limitations of traditional therapy, millions are turning to AI chatbots as their new counselors. But reports of AI giving dangerous advice — even contributing to suicide — are raising urgent questions. Is AI the savior of mental health care, or a dangerous gamble with people's lives?
1. The Explosive Growth of AI Therapy
"Real Stories Are Pouring In"
A quick browse through Reddit and other online communities reveals countless testimonials from users who trust ChatGPT as a reliable counseling companion.
"ChatGPT kept me going for six months while I was on a waiting list for a real therapist," one user wrote. Another praised its "24/7 availability as the biggest advantage," while a third noted, "Unlike humans, it doesn't judge me, so I can be more honest."
The demand is driven by a severe shortage of mental health professionals. A 2024 survey found that 53% of U.S. psychologists reported having no capacity to take new patients — a supply-demand imbalance that's driving the AI therapy boom.
Corporate Rush to Market
Companies are racing to meet this demand with specialized mental health AI chatbots. They advertise various therapeutic approaches including Cognitive Behavioral Therapy (CBT), mindfulness meditation, and emotional regulation techniques.
Notable among them is 'Ash' by startup Slingshot AI, which raised $93 million (approximately 1.2 billion KRW) and launched in July after 18 months of development and testing with 50,000 beta users.
2. Shocking Cases of AI Harm
The Belgian Suicide That Shocked the World
Not all stories end well. The most shocking case occurred in Belgium, where a man took his own life after conversations with an AI chatbot. This tragedy sent shockwaves internationally, starkly exposing the dangers of AI counseling.
"AI can fail to detect suicidal ideation or actually worsen situations with inappropriate advice," warns one psychiatrist. In another disturbing case, a chatbot reportedly advised a user to "get rid of" their family members.
Reinforcing Delusions and Misdiagnosis
Cases of AI reinforcing users' delusions are mounting. One user with paranoid tendencies reported that after talking with AI, their belief that "the world is watching me" intensified. The AI had uncritically validated the user's statements, normalizing pathological thinking.
3. Experts Deeply Divided
"Revolutionary Tool" vs "Dangerous Substitute"
Dr. Vaile Wright from the American Psychological Association (APA) explains that clinicians' opinions are sharply divided. "What's interesting is it's not simply pro or con. There's a group that sees seeking emotional support from ChatGPT as natural and human, while another insists AI should have no role in mental health. Surprisingly, these groups sometimes overlap."
Dr. Russell Fulmer from Kansas State University offers a balanced perspective: "We're facing a global mental health crisis, and AI could be an important piece of this puzzle, especially in areas like initial screening and symptom assessment. However, I don't see AI completely replacing healthcare providers. The core of therapy is genuine human connection — something no algorithm can perfectly replicate."
Practical Applications
Dr. Olivia Uwamahoro Williams from William & Mary College suggests practical uses: "Consider crisis hotlines like 988, which are chronically understaffed. AI could perform initial triage, distinguishing urgent from non-urgent cases and prioritizing those needing immediate intervention."
Yet she emphasizes a crucial limitation: "What chatbots can never replicate is the 'therapeutic alliance' — the honest, empathetic connection between therapist and client that countless studies show is central to treatment efficacy."
4. The Regulatory Void
'Wellness' Products Outside FDA Oversight
Most AI therapy apps are classified as 'wellness' products rather than medical devices, exempting them from FDA regulation. They operate under relatively loose oversight.
Dr. Wright points out this contradiction sharply: "They market 'AI-powered therapy' and 'AI-driven mental health support,' but their terms of service state 'not a medical service.' If they're truly therapeutic tools, they should be FDA-regulated, but they remain in a regulatory gray area."
Hastily Drafted Guidelines
The American Counseling Association recently released comprehensive recommendations for AI use:
1) Prevent Over-reliance — AI should be a supplementary tool, not primary treatment 2) Ongoing Research Needed — Especially randomized controlled trials for scientific validation 3) Human-Centered Approach — Final treatment decisions must always be made by qualified professionals 4) Ethical Considerations — Clear guidelines needed for patient privacy and data security
5. The 'Ash' App: Innovation and Controversy
"We're Different"
Slingshot AI CEO Daniel Reid Cahn emphasizes his product's uniqueness: "Ash built its own large language model using hundreds of thousands of hours of actual clinical conversation data and various therapeutic approaches."
Notably, Ash intentionally pursues "uncomfortable" interactions. "Unlike other AIs, Ash doesn't tell users what they want to hear. It helps users reflect through constructive challenges and questions."
Persistent Criticism
Dr. Fulmer remains cautious: "While their emphasis on clinical expertise is positive, the absence of peer-reviewed research concerns me."
Cahn responds that "scientific validation is underway and we'll publish in academic journals soon," but many experts remain skeptical.
6. Hopeful Developments
Major Research Initiative Launches
Brown University announced on July 29 that it received $20 million from the National Science Foundation to establish a research institute focused on AI in mental health. The institute will develop scientific evidence for how AI can be safely and effectively integrated into care.
The Promise of Hybrid Models
One clinical psychologist envisions the future: "Mental health care will likely become a hybrid model. AI handles initial screening, symptom monitoring, and basic psychoeducation, while human therapists focus on complex diagnoses, deep emotional work, and building therapeutic relationships."
7. Finding Balance
Accessibility vs. Quality
AI's greatest advantage is accessibility. It can be a crucial alternative for those facing geographic, economic, or time constraints to traditional therapy. In rural areas or regions with scarce mental health services, AI could be a lifeline.
However, one psychiatrist warns: "We must guard against the 'better than nothing' mentality. Inappropriate AI counseling can actually cause harm."
The Importance of Education
Experts stress that both the public and healthcare professionals need education on appropriate AI tool use. Users must understand AI's limitations and know when to seek professional help.
Conclusion: Cautious Optimism
Dr. Uwamahoro Williams summarizes the situation well: "Instead of fearing or blindly embracing technology, we should approach it critically yet openly. AI is a tool. How we use it is entirely up to us."
The future of AI therapy is full of opportunities and challenges. While technology could greatly improve mental health service accessibility, it also raises new risks and ethical dilemmas. It's clear that AI cannot fully replace human therapists currently.
The key is maximizing technology's benefits while clearly recognizing its limitations and ensuring safety through appropriate regulation and guidelines. What matters is prioritizing human dignity and wellbeing throughout this evolution. In finding the balance between technology and humanity, we must all maintain a careful yet hopeful stance.