AI기술규제법 도입 협상안 가결
“활용에 무게 둔 韓 인공지능법
EU규제법 신중히 검토‧접근해야”
어떤 처리 과정이 자동적으로 수행이 되면, 우리는 이를 알고리즘(algorithm)이라고 이해하게 된다. 주어진 정보를 근거로 사용자에게 특정한 해답이나 출력 값을 제시하도록 하는 명령의 목록인 인공지능 알고리즘은 소프트웨어가 데이터를 처리하여 주어진 과업을 수행하거나 문제를 해결하기 위해 정의된 일련의 절차로, 문제 해결을 위한 논리(logic)와 문제 해결의 전략인 통제(control)를 담고 있다.
인공지능 알고리즘에 의해 자동화된 의사결정(automated decision-making)도 이뤄질 수 있게 된다.
인공지능은 빅데이터에서 패턴을 인식하는 방식으로 신원을 확인하거나 이미지를 검증하는 컴퓨터 시스템으로서, 빅데이터 기술들은 데이터 규모와 알고리즘 시스템을 통해 구현된다. 인공지능 알고리즘은 우리에게 다양한 장점을 주기도 하지만 부지불식중에 다음과 같은 부작용을 야기하기도 한다.
첫째, 데이터 입력에 따른 차별 가능성이다. 비속어‧인종‧성차별 발언을 되풀이 학습시킨 테이(Tay)의 사례에서 그것을 볼 수 있고, 이루다 채널 이용자들이 이루다와 성적 용어를 공유하면서 발생한 이루다 사례에서 유사한 현상이 나타난 바 있다.
둘째, 차별적 편향성 결과 발생 가능성이다. 여성이 출산과 육아로 인해 경력이 단절되는 경우 재직기간의 데이터 입력 시 이를 누락시켜 여성에게 차별적인 편향성을 야기할 수 있게 된다.
셋째, 결과 도출의 불투명성이다. 인공지능 알고리즘은 입력의 대상은 누구이고, 얻어진 그 결과의 도출경로를 알 수 없다. 또한 영업비밀이나 기술적 우위를 유지하고자 하는 기업의 알고리즘 비공개성 역시 결과 도출의 불투명성을 엿볼 수 있다.
챗GPT 등 생성형 AI의 투명성과 안전성을 강화하고자 하는 유럽연합(EU)의 법률제정이 논의되고 있다. EU 입법 기구인 유럽의회는 올해 6월 14일 세계 최초의 ‘AI기술규제법’을 도입하는 협상안을 가결한 바 있다. 유예기간 등이 경과되면 실제 법안은 내년 초부터 효력을 발생할 것으로 예상된다. 주요 법안 내용은 다음과 같다.
둘째, 창작자의 인공지능 명기의무이다. AI의 데이터 학습에 사용된 자료, 예를 들면, 과학자나 언론인 등의 자료나 음악가·일러스트레이터·사진가 등의 모든 작품을 정리하여 발표한 경우에, AI가 생성한 콘텐츠에는 창작자가 인간이 아님을 명기해야 한다.
셋째, 안전장치의 도입과 위험도 평가의무화에 관한 사항이다. 개발사들은 AI가 불법 콘텐츠를 만들지 못하도록 안전장치를 마련해야 한다. 아울러 AI가 제공하는 정보의 정확성, 차별적인 표현 등 평가 항목에 따라 위험도 평가를 받아야 하며, 그 결과에 따라 서비스 여부를 결정하도록 했다.
넷째, 공공장소에서 안면 등 생체인식 기술을 사용해 시민을 감시하거나 이를 통해 얻은 정보를 수사에 활용하는 것을 전면 금지된다. AI를 이용해 일반 시민들의 행동 패턴을 AI로 분석해 사회적 신용 점수를 매기는 행위도 할 수 없다.
다섯째, 초안의 규제 대상은 EU 회원국과 역내 기업이고, 법 위반 시 최대 3,000만 유로(약 415억 원) 또는 연 매출의 6%에 해당하는 과징금이 부과된다.
우리나라에서 지난 3년간 총 12개의 인공지능 관련 법안이 국회에서 발의됐지만, 논의가 활발히 이루어지지 못했고 법률 제정에는 큰 진전도 없었다. 그런데 최근 ‘인공지능산업 육성 및 신뢰 기반 조성에 관한 법률안’이 국회 과학기술정보통신위원회 법안소위에서 통과되면서 논의가 진척되고 있다.
하지만 다양한 문제점도 노출되고 있다. 가장 문제가 되는 부분은 ‘선(先) 허용, 후(後) 규제’ 방식을 들 수 있다. 해당 법안에 따르면 누구든지 인공지능 기술과 알고리즘의 연구 및 개발, 서비스를 출시하도록 보장하고 있다.
EU의 인공지능 법안과 비교하면, 우리나라의 인공지능법은 인공지능에 대한 ‘규제’에 방점을 두는 것이 아니라 ‘활용’에 더 큰 비중을 두고 있는 형국이다. 유럽연합 인공지능 규제법의 내용을 면밀하게 검토하고 신중하게 접근할 필요가 있다고 하겠다.