AI가 인간에 해악을 끼치거나, 성차별·인종차별 등 편향성에 물들지 않게 하기 위해선 AI 개발 과정에서 높은 윤리 의식이 필요하다는 인식에 따른 것이다.
6일 삼성전자 관계자는 "연내 임직원 대상으로 정식 AI 윤리 교육을 시작할 수 있도록 준비 중"이라고 밝혔다.
삼성전자는 지난해 7월 케임브리지 AI 센터 임직원을 대상으로 원격 AI 윤리 시범 교육을 진행했다. 이를 바탕으로 AI 윤리 교육 프로그램을 마련하고 있다.
하반기 중 AI 윤리 교육 프로그램을 완성하고, 임직원을 대상으로 정식 교육에 나설 계획이다.
현재 삼성전자는 임직원들이 실제 업무 과정에서 AI 윤리 원칙을 실천할 수 있도록 임직원을 위한 'AI 윤리 가이드라인'을 마련해 배포하고 있다. AI 기술이 활용되는 제품과 서비스를 설계, 개발, 배포, 구현, 운용하는 과정에서 해당 가이드라인을 준수하도록 권고한다.
예를 들어, 음성 AI 비서 '빅스비' 서비스는 불공정한 편견이 조장되지 않도록 AI 윤리 원칙을 준수해 설계된다. 특히 각 국가의 법규와 사회적 윤리, 소비자 정서 등을 고려해 자체적으로 ‘민감어 처리 정책’을 확립하고 준수한다.
또 시시각각 변하는 AI 관련 동향과 사회적 이슈를 감지해 해당 데이터베이스에 지속해서 반영하고 있다.
삼성전자는 이 같은 윤리 가이드라인 배포에서 더 나아가, AI 윤리를 임직원 필수 교육 과정으로 넣겠다는 계획이다.
이처럼 삼성전자가 AI 윤리 교육을 공식 도입하는 건 AI가 4차 산업혁명의 핵심 분야로 떠오른 후, 아마존과 구글 등 주요 기업들이 하나같이 윤리 문제로 곤욕을 치른 탓이다.
아마존은 AI 채용 시스템이 여성을 차별했다는 사실이 드러나자 2018년 시스템을 폐기했다. 마이크로소프트(MS)는 2016년 3월 AI 챗봇 '테이'를 출시했다가 16시간 만에 운영을 중단했다. 백인우월주의 및 여성·무슬림 혐오 성향의 익명 사이트에서 테이에게 비속어와 인종·성 차별 발언을 되풀이해 학습시켰고, 그 결과 실제로 테이가 혐오 발언을 쏟아낸 탓이었다.
국내에서도 올 초 AI 챗봇 '이루다' 사태를 통해 AI 윤리 기준 정립 및 교육의 중요성이 부각된 바 있다.
업계에선 AI 개발자의 선입견과 편견이 AI에 그대로 반영되거나, 오염된 데이터로 학습한 AI가 기성 사회가 갖고 있던 불평등 및 차별적 양상을 높일 수 있다고 지적한다.
게다가 기업은 윤리적으로 불완전한 AI 제품 및 서비스의 출시로 인한 사회적 비판과 매출 불이익 등의 피해를 볼 수 있다.
유재흥 소프트웨어정책연구소 AI정책연구팀 선임연구원은 "대기업 및 선도 기업들이 자율적으로 AI 윤리 준칙을 제정하고 임직원 교육에 나서는 등 모범 사례를 발굴해 중소기업과 스타트업에 보급 및 확산하는 역할이 필요하다"라고 밝혔다.