충격적 내용 노출되면 ‘불안’ 반응
명상으로 진정시키면 객관적 응답
“인간 심리 반영…치료 활용 기대”


챗GPT와 개발사 오픈AI의 로고. 서울신문 DB
생성형 인공지능(AI) 챗봇인 챗GPT가 차 사고나 자연재해 같은 충격적인 내용을 접하면 인간처럼 ‘불안’을 경험하지만, ‘명상’으로 진정시킬 수 있다는 연구 결과가 나왔다. 챗GPT가 불안해지면 사용자에게 짜증을 내거나 인종차별·성차별적 답변을 더 자주 내놨는데 명상을 거친 후에는 객관적으로 답했다는 분석이다.
10일(현지시간) 포춘지 등에 따르면 미국 예일대와 이스라엘 하이파대, 스위스 취리히대 등 국제 연구팀이 최근 발표한 이 연구 결과는 정신 건강 분야에서 AI의 활용 가능성을 제시했다.예일 의과대학과 하이파 대학교 공중보건대학의 신경과학 연구원인 지브 벤-지온 박사는 “물론 AI 모델이 인간의 감정을 경험하는 것은 아니다”라고 강조했다. AI가 인터넷에서 수집한 방대한 양의 데이터를 토대로 충격적인 자극에 따른 인간의 반응을 모방하는 법을 배운 것이다.
연구팀은 이런 AI의 ‘불안’이 명상 기반 기법으로 진정될 수 있다는 점을 발견했다. 연구자들은 챗GPT에 충격적인 내용을 보여준 뒤, 호흡법이나 명상 안내문 같은 ‘진정 프롬프트’를 즉각적으로 제공했다.
그 결과 명상 개입을 받은 챗GPT는 받지 않았을 때보다 사용자에게 더 객관적으로 응답했다. 마치 상담사가 불안한 환자에게 호흡법이나 명상을 제안하는 것과 비슷하다.
벤-지온 박사는 “많은 시간과 돈이 드는 실험을 매주 진행하는 대신, 챗GPT를 사용해 인간 행동과 심리학을 더 잘 이해할 수 있다”며 “인간의 경향과 심리적 요소를 일부 반영하는 빠르고 저렴하며 사용하기 쉬운 도구를 얻게 된 것”이라고 말했다.
존스홉킨스대에 따르면 미국에서는 18세 이상 성인 4명 중 1명 이상이 정신 건강 문제를 겪고 있다. 그러나 많은 이들이 비용 문제와 접근성 부족으로 상담이나 치료를 받지 못하고 있다. 이런 상황에서 챗GPT와 같은 챗봇이 정신 치료의 대안으로 떠오르고 있다는 설명이다.
워싱턴포스트는 실제 일부 사용자들이 처음에는 학교, 직장 관련 질문에 챗GPT를 활용하다가, 점차 스트레스 상황 대처법이나 감정 관리 방법 등 개인적인 문제에 대해서도 상담을 구했다고 보도했다.
벤-지온 박사는 충격적인 내용에 대한 대형 언어 모델의 반응 연구가 정신 건강 전문가들이 AI를 환자 치료에 활용하는 데 도움이 될 수 있다고 주장했다. 그는 현재로선 한계가 있지만, 챗GPT의 정신 상담에 앞서 자동으로 ‘진정 프롬프트’를 받도록 업데이트하는 방안을 제안했다.
그는 “AI 시스템이 심리학자나 정신과 의사를 완전히 대체할 수 있는 수준까지는 아직 도달하지 못했다”고 부연했다.
벤-지온 박사는 상담사나 정신과 의사를 대체하는 챗봇을 만드는 게 목표가 아니라고 밝혔다. 그는 “AI는 전반적으로 인간의 정신 건강을 돕는 데 놀라운 잠재력을 가지고 있다”며 “하지만 현재 상태에서, 그리고 아마 미래에도, AI가 상담사나 심리학자, 정신과 의사, 연구원을 대체할 수 있을지는 확실하지 않다”고 덧붙였다.
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지