생성형 인공지능(AI) 개발은 구글이나 마이크로소프트(MS), 메타와 같은 거대 IT 기업의 전유물이다.
학습 데이터와 이를 처리하는 반도체와 컴퓨터 그리고 숙련된 인재를 확보하려면 대규모의 자금력이 필요하기 때문이다.
챗GPT를 개발한 오픈AI의 경우 66억 달러(약 8조7000억원)의 투자금을 유치해 1570억 달러의 기업가치를 인정받고 있을 정도다. 영국 토터스미디어의 글로벌 AI 지수를 보면 미국이 1위, 중국이 2위다.
AI 시스템은 자기 학습이라는 프로세스를 통해 단어를 추측하고 답을 찾는다. 많은 데이터를 학습할수록 유리한 결과를 얻을 수 있는 구조다.
데이터 장벽을 극복할 수 있어야 AI 기술을 발전시킬 가능성이 크다. 유럽연합(EU)이 AI 경쟁에서 미·중에 밀린 것도 알고 보면 포괄적 규제를 섣불리 도입한 결과다.
데이터 접근에 엄격한 기준을 들이대는 바람에 관련 기업만 옥죄는 결과를 낳은 것이다.
일본과 이스라엘처럼 자국 AI 산업을 육성하려고 데이터 접근을 폭넓게 허용하는 것과 다르다.
특히 AI 모델이 최신 상태를 유지하려면 실시간 정보에 접근할 수 있어야 한다. 문제는 데이터 고갈을 피할 수 없다는 점이다. 인터넷 데이터도 2028년이면 소진될 것이란 이코노미스트의 보도도 있다.
인터넷이 수백조 개의 데이터를 제공하고 있으나 석유 자원처럼 고갈될 수밖에 없다는 논리다.
우리나라는 아직 AI 기본법조차 없다. AI가 어떻게 학습하고 어떤 결과를 도출할지 현 단계에서 파악하기 힘들다는 이유에서다.
그렇다고 손을 놓고 있거나 예기치 않은 결과를 낸 기업을 무조건 처벌하는 게 능사는 아니다. AI의 안전성과 신뢰성을 갖추도록 리스크를 관리하고 지원하는 정책이 필요한 이유다.
AI 경쟁력을 높이기 위한 기본법이라도 조속히 만들어 시장의 불확실성을 줄여주는 게 중요하다.
국가 경제를 위해서라도 비즈니스의 가장 큰 리스크인 미래 불투명성을 해소하는 게 시급한 시점이다.