메뉴 글로벌이코노믹 로고 검색
검색버튼

결과만 알려주는 AI는 가라...과정도 설명해 주는 친절한 'XAI' 뜬다

금융·의료·경제 분석 등 AI 모델 작성시 설명 가능
올해부터 금융 같은 산업군에선 XAI 실사례 등장
‘설명가능한 AI’, 금융·질병·투자 등 사용 신뢰도↑
AI결정 설명위해 분석·의미담은 보고서 자동 작성

홍정민 기자

기사입력 : 2020-01-08 05:30

소프트웨어 정책연구소는 2020년 SW 산업의 10대 이슈 중 하나로 설명가능한 AI를 꼽았다. AI가 갈수록 보편화됨에 따라서 어떻게 편견과 신뢰의 문제를 다루고 있는지를 밝히는 것이 그 어느 때보다 중요해 지고 있기 때문이다. 사진=글로벌이코노믹 DB이미지 확대보기
소프트웨어 정책연구소는 2020년 SW 산업의 10대 이슈 중 하나로 설명가능한 AI를 꼽았다. AI가 갈수록 보편화됨에 따라서 어떻게 편견과 신뢰의 문제를 다루고 있는지를 밝히는 것이 그 어느 때보다 중요해 지고 있기 때문이다. 사진=글로벌이코노믹 DB
미국방연구원(DARPA)의 AI와 XAI의 개념비교도. 자료=DARPA이미지 확대보기
미국방연구원(DARPA)의 AI와 XAI의 개념비교도. 자료=DARPA


인공지능이 고양이 이미지를 분류할 경우 기존 시스템은 입력된 이미지의 고양이 여부만을 도출하지만 XAI는 고양이 여부를 도출하고 털, 수염 등의 근거까지 사용자에게 설명한다. 자료=금융보안원이미지 확대보기
인공지능이 고양이 이미지를 분류할 경우 기존 시스템은 입력된 이미지의 고양이 여부만을 도출하지만 XAI는 고양이 여부를 도출하고 털, 수염 등의 근거까지 사용자에게 설명한다. 자료=금융보안원

터널·교량 안전점검 자동화 소프트웨어와 플랫폼. 자료=딥인스펙션이미지 확대보기
터널·교량 안전점검 자동화 소프트웨어와 플랫폼. 자료=딥인스펙션

지난 2016년 바둑 인공지능(AI) 알파고 등장 후 4년. AI는 인간처럼 스스로 학습하고 사고하는 딥러닝 기술을 기반으로 일상생활에서부터 전 산업군으로 급속히 확산됐다. 그리고 이 과정에서 ‘딥러닝’은 AI에 지능을 부여하는 트레이닝을 위해 가장 많이 활용되는 기법이다. 딥러닝은 알고리즘에 따라 AI가 데이터 학습을 통해 지능을 습득하는 과정이라고 할 수 있다. 어떤 분야라도 데이터를 주면 스스로 학습해 결론을 도출함으로써 인력에 의존하는 것보다 높은 정확도와 효율성을 보여준다는 장점을 갖는다. 그러나 AI가 어떤 방식으로 데이터를 학습해 결과를 도출하는지 그 과정과 이유를 파악할 수는 없었다.

예를 들면 이세돌 9단과 바둑 대결을 펼친 AI 바둑 프로그램 알파고가 둔 수를 사람은 결코 이해할 수 없다. 알파고의 바둑돌 착수 비법은 딥러닝 네트워크의 수많은 노드를 거치지만 알파고를 만든 구글 딥마인드조차도 그 비법을 알지는 못한다. 프로 바둑 기사들이 국후 대국 검토를 통해 왜 어떤 수가 좋았고 어떤 수가 나빴던 것인지 분석해 보는 것과 큰 차이를 보인다.

그래도 바둑의 경우라면 그 과정을 몰라도 상관없을 수도 있다. 그러나 만일 대규모 투자나 핵무기 발사 등이 아무런 설명없이 결정되고 실행된다면 과연 어떨까. 끔찍할 것이다.

이 점을 보완해 도출된 결론에 신뢰할 수 있는 설명까지 제공하고자 하는 노력의 일환으로 이른바 ‘설명 가능한 AI(XAI, eXplainable AI)’가 등장했다. XAI는 말그대로 인공지능의 행위와 판단을 사람이 이해할 수 있는 형태로 ‘설명할 수 있는 인공지능’을 뜻한다. 예컨대 AI 시스템이 고양이 이미지를 분류할 경우 기존 AI는 입력된 이미지의 고양이 여부만 도출하지만 XAI는 고양이의 털, 수염 등 고양이라는 결론을 도출하게 된 근거까지 사용자에게 함께 제공하는 식이다.

이처럼 AI가 사람에게 사고과정을 설명하게 되면 질병 진단과 금융, 투자 등의 분야에서 사용자들이 AI의 판단에 대한 신뢰가 더욱 높아질 것으로 보인다. 질병 진단 시 뇌 영상 이미지와 생체 데이터 등을 자동으로 분석해 치매나 암 등의 질병을 판단하게 된 근거를 알 수 있다면 당연히 신뢰도를 높일 수 있다. 또한 주식 거래나 투자 등의 분야에서도 AI가 결정한 이유에 대한 보고서를 받을 수 있으며 이를 토대로 예측도 가능하다.

국내에서도 XAI에 관심을 보이며 개발을 하는 곳이 늘어나고 있다. 울산과학기술원(UNIST)이 지난 2017년 9월 정부의 인공지능 국가전략프로젝트 일환으로 최대 154억원을 지원받아 ‘설명가능 인공지능 연구센터’를 열면서 XAI 연구의 시동을 걸었다. UNIST는 금융·의료·경제 분석 등 AI 모델을 만들었을 때 어떻게 분석해 이런 결정을 내렸는지 설명을 하는 것, 출력 부분으로 인공지능이 내린 결정을 설명하기 위해 사람이 만든 것처럼 분석적 의미를 담은 자연어로 된 보고서를 자동으로 작성하는 것 등을 위한 XAI를 개발하고 있다. 이를 기반으로 의료와 금융 분야를 대상으로 실증을 마친 후 포스코와 네이버에 해당 기술을 이전할 계획이다.

서울시도 지난해 7월 영상로봇과 XAI를 활용한 ‘무인 원스톱 시설물 점검시스템’을 시범적용했다. 사람이 접근하기 어렵고 위험한 교량 아래 등을 영상로봇 장비로 촬영하고 사물인터넷(IoT)로 전송하고 이를 XAI로 분석하는 방식이다. XAI를 통해 균열이 있을 경우 위험도를 평가해 A, B 등급 등을 매기고 왜 이런 평가를 했는지 설명할 수 있다.

소프트웨어 정책연구소는 2020년 SW(소프트웨어) 산업의 10대 이슈 중 하나로 설명가능한 AI(XAI, eXplainable AI)를 꼽았다. AI가 갈수록 보편화됨에 따라서 어떻게 편견과 신뢰의 문제를 다루고 있는지를 밝히는 것이 그 어느 때보다 중요해 지고 있기 때문이다. 의료, 금융, 군사 등 다양한 분야에서 사용자로부터 공감대 형성을 통한 신뢰를 얻고 더 나은 경험을 제공하기 위한 방향으로 AI가 진화해 나가고 있다.

김정민 소프트웨어정책연구소 연구원은 “XAI의 기술 구현 난이도가 높아 연구 개발이 아직 완성되지 않았다”며 “이미지를 해석할 수 있는 기술이 아직 고도화가 되지 않아 아직 전 산업에서 활용되기는 어렵다”고 밝혔다. 이어 “단 이미지를 인식하지 않는 데이터인 금융 분야 같은 산업군의 경우 수치 데이터로 서비스를 만들 수 있기 때문에 올해부터 XAI의 실사례가 등장할 수 있어 XAI를 올해 2020 SW산업 10대 전망 중 하나로 꼽았다”고 설명했다.

김 연구원은 “우리나라 뿐 아니라 해외의 경우에도 XAI 기술이 완성되지 않았기 때문에 비록 연구를 먼저 시작했더라도 비슷한 개발 단계로 아직 실산업에서 많이 도입되지 않은 상태”라고 말했다.


홍정민 글로벌이코노믹 기자 goodlife@g-enews.com
아우디에서 가장 빠른 전기차 RS e-트론 GT
아우디 e-tron GT vs. 아이오닉 5 N 비교할 수 있을까?
이번엔 더 무서운 차 끌고 나왔다! 벤츠 E 300 4MATIC AMG Line
국내 1, 2위 다투는 수입차, 벤츠 E와 BMW 5 전격 비교
숨은 진주 같은 차, 링컨 노틸러스 ... "여긴 자동차 극장인가?"
가장 현실적인 드림카, 벤츠 디 올-뉴 CLE 450 4MATIC
파격 변신한 8세대 BMW 5시리즈...520i M sport package, "엔트리 같지 않다"
모든 걸 다 가진 차 왜건..."볼보 V90 CC, 너 하나로 만족한다"
맨위로 스크롤