20일(현지시간) 워싱턴포스트(WP) 보도에 따르면 지난달 구글의 대규모 감원으로 해고된 직원들 가운데 수백 명이 참여하는 온라인 대화방에서 ‘어떤 법도 위반하지 않도록 설계된 영혼 없는 알고리즘’이 해고 대상자를 결정한 게 아니냐는 의문이 제기됐다. 해고 대상을 경영진이 판단하는 게 아닌 AI가 제시한 기준에 따라 정리했을 거란 의혹이다. 구글 측은 해고 의사 결정에 어떤 알고리즘도 관여하지 않았다고 해명했으나 WP는 별도의 해고 기준은 확인할 수 없었다고 덧붙였다.
WP는 이번 사태에 대해 “알고리즘이 사람들을 해고하는데 어떤 역할을 하고 있는지, 고용주는 해고 사유를 어느 선까지 투명하게 공개해야 하는지에 대한 논쟁이 촉발됐다”고 분석했다.
논란이 제기된 건 실제로 기업들이 인터뷰, 채용, 승진이나 해고 대상 등의 결정에 AI를 활용할 가능성이 커졌기 때문이다. 1월 미국 기업 인사 담당자 300명을 대상으로 한 설문 조사에서는 응답자의 98%가 ‘올해 해고 결정을 내리는데 소프트웨어와 알고리즘을 활용할 것’이라고 답했다. WP는 대량 해고가 필요해져 인간이 혼자 해고를 결정하는 게 어려울 것으로 전망했다.
매체는 “에잇폴드 AI 같은 회사가 알고리즘을 이용해 온라인 경력 프로필과 다른 기술 데이터베이스에서 스크랩한 수십억 개의 데이터 포인트를 분석해 채용 담당자들이 적절한 지원자들을 찾는 데 도움을 줄 수 있을 것”이라고 전했다. 이미 여러 대기업은 직원 채용과 업무 평가 등에 알고리즘을 광범위하게 활용하는 것으로 알려졌다.
일부 전문가들은 알고리즘이 유색 인종, 여성, 노인 등에 대해 편향된 판단을 내릴 수 있다는 점을 지적한다. 직장 내 인종차별로 흑인의 이직률이 높은데, AI는 단순히 특정 집단의 이직률이 높은 것으로 판단해 해고 대상으로 우선 고려하는 것과 같은 문제가 생길 수 있다는 것이다.
소프트웨어 리뷰 사이트 캡테라(Capterra)의 브라이언 웨스트폴 수석 HR분석가는 “잘못된 데이터를 사용하는 알고리즘이 말하는 내용에 기반해 맹목적으로 결정을 내리고 따르는 것은 위험하다” 말했다.