그리고 2021년, AI 챗봇 ‘이루다’를 둘러싼 성희롱, 동성애 차별, 소수자 혐오 등 문제가 불거지면서 논란이 커지고 있다. ‘이루다’는 스타트업 스캐터랩이 지난달 23일 페이스북 메신저 기반으로 출시한 AI 챗봇이다. 자연스러운 대화 능력으로 이용자가 40만 명을 넘어 크게 주목받았다. 하지만 악성 이용자로부터 성적 도구 취급에 시달리다 동성애·장애인·여성 혐오 발언을 내놓았다.
문제가 커지자 결국 개발사인 스타트업 스캐터랩은 중단을 선언했다. 스캐터랩은 “부족한 점을 집중적으로 보완할 수 있도록 서비스 개선 기간을 거쳐 다시 찾아뵙겠다”고 밝혔다.
이번 중단 결정은 당연하며, 잘한 일이다. 앞으로 스캐터랩만이 아니라 여타 AI 기업들 역시 AI에 학습되는 빅데이터는 신뢰할 수 있고 편향적이지 않도록 세심한 주의를 기울여 개발해야 할 것이다.
그런데 과연 AI 챗봇의 문제를 완벽히 해결할 수 있을까? 쉽지 않을 것이다. 기본적으로 AI는 수많은 인간의 메시지에 기반을 둔다. 그런데 인간들은 이 편견에 빠져 있다.
특히 소셜네트워크서비스(SNS)에는 너무나도 많은 악성 이용자들이 존재한다. 따라서 AI 챗봇이 습득하는 데이터 자체에 문제가 있을 수밖에 없다.
인간의 정보를 통해 학습하고, 인간을 모방하는 AI 챗봇이기에 개발자 의도와는 달리 인공지능은 얼마든지 불공정해질 수 있다는 점을 챗봇 이루다가 보여준 셈이다. 인공지능은 선입견으로 인한 불공정한 결정을 내리지 않고, 편견이나 낙인효과로부터 벗어날 수 있게 해 줄 것이라 기대했지만 정작 모방의 대상인 인간은 불완전하며, 불공정하며, 편견에 휩싸여 있다.
더 큰 문제는 코로나19로 인해 차별과 분열이 더욱 확산하고, 굳어지고 있다는 점이다. 따라서 이번 이루다 논란은 AI만의 문제라기보다 기존에 인간이 가지고 있던 문제들이 새로운 기술의 발전으로 인해 증폭되어 나타난 하나의 현상에 불과하다고 볼 수 있다.
그렇다면 우리 사회는, 우리 인간은, 합의를 끌어낼 만한 준비가 되어 있는가. 안타깝게도 전혀 그렇지 않아 보인다. 한국은 다른 인종에 대한 차별이 심각한 나라다. 여러 소수자에 대한 차별인식을 측정하는 ‘세계가치조사’ 결과를 보면, 한국인은 30% 가까이가 다른 인종과 함께 살기를 원하지 않는다고 한다. 미국은 5%에 그친다.
종교 편견은 어떠한가. 개신교의 이슬람에 대한 편견 때문에 할랄 시장 개척에 애를 먹은 중소기업들이 수도 없이 많다. 게다가 우리 사회의 많은 이들은 이슬람교를 테러ㆍ전쟁 등의 부정적인 이미지와 연관 짓고 있다.
이뿐만이 아니다. 부산시장과 서울시장 건만 봐도 알 수 있듯 성희롱(성폭력)은 여전히 심각한 수준이다. 동성애 차별과 소수자 혐오는 말할 것도 없다.
특히 최근엔 부동산 계급을 나누는 차별까지 나타나고 있다. 어려워진 ‘내 집 마련’ 탓에 집을 가지지 못했다는 이유로 ‘벼락 거지’, 사는 곳이 다르다고 해서 ‘호텔 거지(정부가 공급하는 호텔 전세방에 사는 무주택자)’ 등 무주택자를 향한 서슴없는 비하의 표현이 생겨나고 있다. 또한, 사람이 사는 곳을 1급지, 2급지, 3급지 등 순위로 나눠 차등을 둔다. 사회적 계급을 ‘집 있는 자’와 ‘집 없는 자’로 구분하며 차별하고 있는 것.
어쩌면 AI 챗봇 ‘이루다’가 내놓은 성희롱, 동성애 차별, 소수자 혐오 등 발언 등은 바로 우리의 자화상일 수 있다. 아니 바로 우리 자신의 모습이다.
이번 논란을 단순히 인공지능이 가진 기술적 문제로 인식할 것이 아니라 우리 자신을 뒤돌아볼 계기로 삼을 필요가 있다. 끝으로 선입견 없고 공정한 인공지능을 만날 준비가 되어 있는지도 스스로에게 물어봐야 할 시점이다. che@