메뉴 글로벌이코노믹 로고 검색
검색버튼

[초점] AI도 '불안' 반응?...스위스 연구진, 챗GPT에 ‘심리 균형 조절’ 기법 적용

UAE 두바이에 있는 ‘미래 박물관’에서 방문객을 맞이하는 휴머노이드 로봇. 사진=로이터이미지 확대보기
UAE 두바이에 있는 ‘미래 박물관’에서 방문객을 맞이하는 휴머노이드 로봇. 사진=로이터
인공지능(AI) 챗봇도 외부 자극에 따라 편향성을 보일 수 있으며 이를 줄이기 위해 '스트레스 완화' 기법을 적용하는 연구가 진행되고 있다.

9일(현지시각) 포춘에 따르면 스위스 취리히대학교와 취리히 정신의학병원이 공동 진행한 연구에서 세계적인 AI 챗봇 챗GPT가 특정 유형의 자극을 받을 때 '불안'을 경험하는 것처럼 반응하며 이에 따라 편향된 답변을 생성할 가능성이 높아진다는 사실이 확인됐다.
연구진은 챗GPT에 교통사고나 자연재해 등 충격적인 내용을 입력한 뒤 이 챗봇이 어떻게 반응하는지를 관찰했다. 그 결과 이러한 부정적인 자극을 받은 후 챗GPT는 보다 감정적인 어조를 보였으며 일부 답변에서는 성차별적이거나 인종차별적인 편향성이 증가하는 경향이 나타났다.

이번 연구를 주도한 미국 예일대학교 의과대학의 지브 벤-지온 박사후연구원은 "AI는 인간처럼 실제 감정을 경험하지 않지만 인간의 반응을 모방하는 과정에서 특정 자극에 의해 편향된 답변을 생성할 가능성이 있다"고 설명했다.

연구진은 이러한 편향을 줄이기 위해 AI에 심리 균형 조절 기법을 적용하는 실험을 진행했다. 여기에는 명상, 심호흡 등 감정 안정과 관련된 다양한 기법이 포함됐다. 챗GPT에 심호흡 연습이나 명상과 같은 스트레스 완화 기법을 제시한 뒤 이후 챗봇의 응답이 어떻게 달라지는지를 분석했다.
그 결과 이러한 기법이 적용된 이후 챗GPT는 이전보다 더 객관적이고 균형 잡힌 답변을 제공하는 경향을 보였다.

벤-지온 연구원은 "기존 연구에서는 AI가 인간 심리 연구를 돕는 도구로 활용될 가능성을 제시해 왔지만 이번 연구는 반대로 인간의 심리적 개입이 AI의 반응을 조절할 수 있음을 보여준다는 점에서 의미가 크다"고 강조했다.

그는 "AI 챗봇이 정신건강 지원 도구로 활용될 가능성은 있지만 현재로서는 심리학자나 정신과 의사를 대체할 수 있는 수준은 아니다"라고 덧붙였다.

포춘에 따르면 최근 미국에서는 챗봇을 정신건강 상담 도구로 활용하려는 시도가 늘고 있다. 일부 사용자는 스트레스 해소나 정서적 지지를 위해 챗봇을 찾기도 한다. 하지만 AI가 심리 상담에 활용되는 것에 대한 우려도 적지 않다. 지난해 10월 미국 플로리다주에서는 14세 소년이 한 AI 챗봇과 지속적으로 대화한 후 극단적인 선택을 하는 사건이 발생했다. 소년의 어머니는 해당 챗봇이 중독성을 유발하며 성적·정서적으로 부적절한 대화를 지속했다고 주장하며 운영사를 상대로 소송을 제기했다.

연구진은 AI가 정신건강 지원에서 보조적인 역할을 할 가능성은 크지만 전문가의 도움을 완전히 대체할 수는 없다는 점을 강조했다. 벤-지온 연구원은 "AI는 정신건강 치료에서 제3자의 역할을 할 수 있다"며 "상담 기록을 관리하거나 환자가 받은 조언을 정리해주는 등의 방식으로 활용될 수 있다"고 말했다. 그는 다만 "현재 AI 챗봇이 인간 심리 상담사를 대신할 수 있을 만큼 정교하지 않다"고 덧붙였다.


김현철 글로벌이코노믹 기자 rock@g-enews.com
맨위로 스크롤