올해 인공지능(AI)이 범용기술로 다양한 분야에 적용되는 원년이 될 것이란 전망이 나오면서 AI 위험성에 대한 우려의 목소리도 커지고 있다. AI의 폐단을 막기 위한 세계 각국 공조의 필요성이 부각되고 있지만, AI 패권을 둘러싼 국제사회의 셈법은 더욱 복잡해지고 있다.
지난해 11월 미국과 중국, 유럽연합(EU), 한국 등 28개국은 영국 블레츨리에서 열린 제1회 ‘AI 안전성 정상회의’에서 AI 기술의 위험성에 대해 공동 협력을 다짐하는 ‘블레츨리 선언’에 합의했고, 한국은 오는 5월 AI의 안전성 미니정상회의를 영국과 공동 개최하기로 했다.
당시 이종호 과학기술정보통신부(과기정통부) 장관은 AI 안전성 정상회의 참석 후 관련 브리핑에서 “한국에서 국제 AI 회의가 개최된다는 것은 우리나라 AI 기술에 대한 인식이 좋다는 의미”라고 말했다. 하지만 한국은 AI 패권 경쟁에 있어서 협력할 만한 ‘모범생’일 뿐 주도권을 쥐고 있는 상황은 아니다.
21대 국회 내내 논의됐던 ‘인공지능 기본법(인공지능 산업 육성 및 신뢰 기반 조성에 관한 법률)’은 지난해 2월 국회 과학기술정보방송통신위원회 법안소위를 통과한 뒤 계류 중이다. 반면 EU는 논의를 시작한 지 2년여 만에 지난해 12월 세계 최초로 AI 규제 법안 초안에 합의하면서 글로벌 규제 측면에서 먼저 치고 나갔다. 미국도 입법은 아니지만, 지난해 10월 말 조 바이든 미국 대통령은 AI 학습 전 연방정부에 사전 보고와 AI 콘텐츠에 대한 워터마크 지침 마련 등을 골자로 한 ‘AI 행정명령’에 서명하면서 통제 장치를 마련했다.
업계에서는 한국이 올해 5월 열릴 AI 안전성 미니 정상회의의 공동 개최국인 만큼 대책 마련이 시급하다는 지적이 나온다. AI 발전 전개가 워낙 빨라 이대로 가다간 주도권 경쟁은커녕 선도국을 추격하는 ‘패스트 팔로어’도 되지 못할 수 있다는 우려마저 나온다.
정부가 ‘AI 리터러시(literacy·활용 능력) 교육’부터 주도해야 한다는 지적도 나온다. 결국, AI를 사용하는 인구가 많아져야 AI 산업도 발전할 수 있고, 필요한 규제가 무엇인지도 모색할 수 있기 때문이다. 실제로 블룸버그에 따르면 챗GPT 출시 직후인 지난해 1~3월 글로벌 이용자 비중에서 한국은 상위 10위권에 들지 못한다. 디지털 강국이라 자부하고 있지만, 정작 국민의 AI 활용은 지극히 미미한 상황이다. 강 센터장은 “한국은 AI 리터러시 측면에서 상당히 떨어져 있다”면서 “언론 보도로 AI 발전 소식은 알고 있지만, 정작 업무나 일상에서 AI를 활용하고 경험하는 사람들은 매우 적다”고 지적했다.
정부는 AI 신뢰성 검증이라는 새로운 시도에도 적극적으로 나서고 있다. 과기정통부도 안전하고 신뢰할 수 있는 AI 시스템을 만들기 위해 한국정보통신기술협회(TTA)와 함께 AI 신뢰성 단체표준을 제정했으며, 지난해 12월 ‘인공지능 신뢰성 검·인증’ 체계를 구축해 시범 인증에 착수했다. 이강해 TTA AI융합기획단장은 “과기정통부에서 하고 있는 R&D 중 고위험군에 들어가는 의료와 국방, 공공안전 등 3개 프로젝트에 대해 시범 AI 검인증을 들어갔다”면서 “전 세계적으로 AI 신뢰성 검증에 나선 것은 한국이 처음이다. 사례를 잘 정리해 해당 체계가 전 세계에 확산하도록 할 방침이다”고 설명했다.
일각에서는 5월 미니 정상회의 개최를 국내법이 나아가야 할 방향성을 잡는 계기로 삼아야 한다는 지적도 나온다. AI 법안을 졸속으로 통과시키는 대신 미국과 영국 등 AI 선도국들과 공조하는 과정에서 이들의 혁신 지향적 규제 체계를 참고하고, 올해 본격적으로 진행될 국제규범의 제안 작업과 병행하는 게 필요하다는 것이다.