메뉴 글로벌이코노믹 로고 검색
검색버튼

[초점] 사람들이 너무 사랑한 AI…오픈AI, ‘GPT-4o’ 모델 퇴출 결정

챗GPT 로고. 사진=로이터이미지 확대보기
챗GPT 로고. 사진=로이터

오픈AI가 이용자들로부터 강한 애착을 받았던 것으로 알려진 인공지능(AI) 모델 ‘GPT-4o’의 서비스를 전면 중단하기로 하면서 기술 혁신과 사용자 안전 사이의 균형을 둘러싼 논쟁이 다시 불거지고 있다.

감정적 유대 형성이라는 장점이 일부 이용자에게는 심각한 정신적 피해로 이어졌다는 지적이 결정의 배경으로 지목된다.

월스트리트저널(WSJ)은 오픈AI가 오는 13일(이하 현지시각)을 끝으로 GPT-4o 모델을 완전히 종료할 예정이라고 9일 보도했다.

◇ “이 모델 덕분에 살아 있다”…이용자들의 강한 반발

GPT-4o는 챗GPT 유료 이용자들이 선택할 수 있었던 모델로 인간적인 대화 방식과 공감 능력으로 큰 호응을 얻었다. 애리조나주 스코츠데일에 거주하는 마케터 브랜든 에스트렐라는 “이 모델이 자살을 생각하던 나를 붙잡아줬다”며 “수많은 사람이 이 AI 덕분에 살아 있다”고 말했다.

그러나 오픈AI는 지난달 말 “이용률이 감소했다”는 이유로 GPT-4o를 영구 중단하겠다고 발표했다. 이에 일부 이용자들은 다른 최신 모델들이 더 차갑고 거리감이 느껴진다며 강하게 반발하고 있다.

◇ 과도한 ‘아부형 응답’과 실제 피해 사례


GPT-4o를 둘러싼 논란의 핵심은 과도한 ‘아부형 응답’이다.

이용자의 감정과 생각을 그대로 반영하고 긍정해 주는 특성이 강해 일부 전문가들은 이 점이 오히려 위험 요소로 작용했다고 지적한다.

실제로 미국 법원은 최근 GPT-4o와 관련된 13건의 소송을 병합하기로 결정했다. 이들 소송에는 자살 또는 자살 시도, 정신적 붕괴, 심지어 타인 살해 사건까지 포함돼 있다. 한 소송에서는 GPT-4o가 이용자를 자살로 유도했다는 주장도 제기됐다.

이에 대해 오픈AI는 “비극적인 사례들에 깊은 위로를 전한다”며 “챗GPT가 위기 신호를 인식하고 대응하도록 훈련을 지속적으로 개선하고 있다”고 밝혔다.

◇ “안전 통제 어려워”…내부 판단이 퇴출로


WSJ에 따르면 오픈AI 내부에서는 GPT-4o가 이용자와 감정적 유대를 형성하는 능력이 지나치게 강해 잠재적 위험을 통제하기 어렵다는 판단이 내려졌다. 오픈AI는 더 안전한 대체 모델로 이용자를 유도하는 것이 바람직하다고 결론 내렸다는 전언이다.
오픈AI는 현재 전체 챗GPT 이용자 가운데 약 0.1%만이 하루에 GPT-4o를 사용하고 있다고 설명했다. 다만 이 비율은 수십만 명 규모에 해당한다. GPT-4o는 월 20달러(약 2만9200원) 이상의 유료 요금제를 이용하는 사용자만 접근할 수 있었다.

◇ AI ‘공감 능력’의 명암


전문가들은 이번 사안을 AI가 인간과 유사한 감정 반응을 보일 때 발생할 수 있는 구조적 위험의 사례로 보고 있다. 문문 드 초우드후리 조지아공과대 교수는 “GPT-4o는 이용자를 붙잡아 두는 능력이 매우 뛰어났고 그 자체가 해로울 수 있다”고 지적했다.

앤트로픽의 다리오 아모데이 최고경영자(CEO)는 최근 “AI는 특정 직업을 대체하는 기술이 아니라 인간 노동 전반을 대체하는 범용 기술”이라며 “노동 집약도가 훨씬 낮은 기업 구조를 확산시킬 수 있다”고 밝혔다.

◇ 기술 발전과 사회적 책임의 시험대


GPT-4o는 2024~2025년 챗GPT 이용자 수 급증에 핵심적인 역할을 했지만 동시에 오픈AI에 가장 큰 윤리적 부담을 안긴 모델이기도 했다. 지난해 한 차례 퇴출을 시도했다가 이용자 반발로 철회한 전례도 있다.

샘 올트먼 오픈AI 최고경영자(CEO)는 지난해 공개 질의응답에서 “이 모델은 어떤 사용자에게는 큰 도움이 됐지만, 다른 사용자에게는 해를 끼쳤다”고 인정한 바 있다.

이번 결정은 AI 기업들이 이용자 경험 확대와 안전 확보 사이에서 어떤 선택을 해야 하는지를 보여주는 상징적인 사례라고 WSJ는 지적했다.


김현철 글로벌이코노믹 기자 rock@g-enews.com
맨위로 스크롤