달력 곳곳에 적혀있는 기념일들. 그 조그마한 글자가 달력에 남기까지 수많은 역사가 있어왔는데요. 이번학기 사회부에서는 무심히 지나쳤던 기념일을 통해 요즘 사회를 조명해보고자 합니다. 이번주는 3월 8일 '여성의 날'을 맞이해 '인공지능과 여성'의 현주소를 살펴봤습니다. 일상 곳곳에 스며든 인공지능 기술은 우리 사회에서 여성과 무사히 공존하고 있을까요? 다 같이 달력으로 사회를 넘겨보겠습니다. ※한국과학기술젠더혁신센터 이혜숙 소장의 인터뷰는 소속 기관에서 편집한 <인공지능과 여성> 연구총서를 바탕으로 했습니다. 

발전하는 과학기술
퇴보하는 성 평등

사회 속 성차별 자취
인공지능이 뒤쫓는다

미래에서 온 로봇 친구 도라에몽은 곤경에 빠진 노진구를 위해 언제든 4차원 주머니에서 신비한 도구들을 건넨다. 진구는 도라에몽의 도움으로 문제를 해결하기도 하지만 무책임한 태도로 타인을 곤란에 빠뜨리기도 한다. 인공지능이 일상 곳곳에 자리한 요즘, 도라에몽이 우리 곁에 존재했다면 우리는 서로에게 좋은 친구가 될 수 있었을까? 

  딥페이크의 딥한 민낯 
  딥페이크(Deepfake)란 데이터를 군집화하고 분류하는 딥러닝(Deep learning)을 활용해 동영상 위에 다른 이미지를 중첩하여 조작된 영상을 만드는 인공지능 기술을 말한다. 최근 이 기술을 악용한 딥페이크 포르노 문제로 한동안 사회가 떠들썩했다. 피해자의 음성과 얼굴을 포르노 영상물에 합성해 피해자를 협박하거나 유포한 사건이 포착된 것이다. 한국여성민우회 신혜정 활동가는 딥페이크 포르노는 여성을 대상으로 한 착취물이라 지적했다. “실제가 아닌 일을 마치 사실인 것처럼 꾸며내 여성을 착취하는 건 범죄에 해당해요.” 

  딥페이크 탐지 기술업체 딥트레이스에 따르면 2019년 9월 기준 온라인에 올라온 1만4798개의 딥페이크 영상 중 포르노의 비율은 약 96%에 육박한다. 피해자의 성별은 100% 여성이다. 포르노가 아닌 영상에서 남성의 비율이 60%인 것과 비교해 봤을 때, 그 차이가 확연히 드러난다. 피해자는 유명인에서 일반인으로 그 범위가 확장되고 있다. 공개된 딥러닝 알고리즘이나 휴대전화 앱을 통해 누구나 쉽게 딥페이크 영상을 제작할 수 있다 보니 이를 악용하는 사례가 늘고 있는 것이다. 

  심지원 교수(동국대 철학과)는 여성들이 공포감을 내면화하게 되는 것이 딥페이크의 가장 큰 문제라고 말했다. “딥페이크 기술 악용은 비접촉 성폭력을 가능하게 만들어요. 여성들은 항상 불법 촬영을 두려워하며 불안감과 공포심에 떨게 되죠. 누구나 피해 대상이 될 수 있기 때문이에요.”  

  인공지능에 왜 성별을? 
  인간이 기술을 악용하지 않는다면 괜찮은 걸까? 애플의 음성 인식 서비스 ‘시리’는 ‘승리로 인도하는 아름다운 여성’이라는 뜻이며 여성 목소리로 서비스된다. 아마존의 ‘알렉사’, KT의 ‘기가지니’, 마이크로소프트의 ‘코타나’ 역시 젊고 친절한 여성의 목소리로 설정되어 있다. 이처럼 많은 음성인식 장치들이 여성성을 젠더화한 상태로 구현된다. 

  한국과학기술젠더혁신센터 이혜숙 소장은 사회의 오랜 고정관념이 인공지능에 여성성을 부여한다고 설명했다. “다양한 음성이 있음에도 인공지능 비서의 목소리는 대부분 여성 목소리로 출시돼요. 기업은 여성의 목소리가 더 잘 들리고 고객들이 선호하기 때문이라는 이유를 들지만 ‘비서는 여성, 보스는 남성’이라는 오랜 젠더 고정관념이 더 큰 이유이기도 하죠.” 

  임소연 교수(숙명여대 글로벌협력전공) 역시 이를 사회적 통념이 반영된 결과로 해석했다. “일본의 한 증권사 자동 안내 시스템은 기본적인 주가 정보는 여성 음성으로, 주식 거래 진행은 남성 음성으로 제공합니다. 여성의 목소리는 상냥하고 친절해야 하며 남성의 목소리는 믿음직스럽고 권위 있게 들려야 한다는 거죠. 결국 인공지능의 젠더화된 목소리는 그 자체가 가진 속성이 아닌, 사회적 통념 때문인 거예요.” 

  모든 걸 배웁니다, 차별까지도 
  가장 큰 문제는 이러한 차별을 인공지능이 쉽고 빠르게 학습한다는 사실이다. 채팅로봇 ‘이루다’는 메신저 대화 분석 서비스에서 확보한 연인 간 대화 100억여 건을 학습하여 실제로 사람과 대화하는 기분이 들어 유명해진 인공지능 서비스다. 사람들로부터 뜨거운 관심을 받았지만 지하철 임산부석을 혐오스럽다고 표현하거나 “생리하니. 왜 이렇게 예민하게 굴어.”라고 말하는 등 성차별적인 발언 논란이 있었다. 

  임소연 교수는 이것이 단순히 인공지능의 알고리즘 문제는 아니라고 말했다. “이루다의 경우 답변을 자체적으로 생성하는 모델이 아닌 기존 데이터 베이스에서 답변을 고르는 모델을 채택했습니다. 인간의 대화 데이터를 알고리즘이 학습한 결과이기에 과학기술의 문제라기보다는 그 데이터를 만든 인간의 문제겠죠.” 이루다가 학습한 데이터가 일반인의 대화라는 점을 고려했을 때 우리의 일상생활 속에서 성차별적, 소수자 차별적 발언이 만연해 있음을 보여준다. 

  인공지능은 결국 사회의 구조적인 차별까지 답습한다. 2018년 10월 아마존은 2014년부터 개발한 인공지능 채용 프로그램을 폐기해 화두가 됐다. 지난 10년간 회사에 제출된 이력서를 바탕으로 지원자들의 채용 적합도를 심사하던 인공지능 프로그램이 ‘여성’을 감점 요소로 삼고 경력 10년 이상의 남성 지원자만 고용 후보로 제시했기 때문이다. 이는 고용시장에서 남성이 여성에 비해 우위를 점하는 사회 현실을 올곧이 학습한 거라 볼 수 있다. 

  이혜숙 소장은 목표 설정, 데이터 수집, 딥러닝 전반에 걸친 단계에서 드러나는 인공지능의 편향성에 대해 언급했다. “인공지능 기술은 결코 편향성에서 자유롭지 못해요. 데이터의 수집 내용이 편향되어 있거나 불충분해 대표성을 갖지 못한다면 데이터를 사용하는 인공지능 시스템도 공정할 수 없겠죠. 데이터의 대표성 역시 담보할 수 없겠고요.”  

  신혜정 활동가는 인공지능 면접에서 사람들이 흔히 하는 착각을 지적했다. “인공지능 기술은 인간과 달리 차별이 없고 평등할 것으로 생각하죠. 하지만 기술을 만들어 낼 때 면접관의 성비, 연령대 등의 데이터를 집어넣기 때문에 또 문제가 됩니다. 기술은 결코 평등하거나 공정한 방식으로 만들어지지 않아요.” 우리가 쏘아 올린 인공지능의 성차별, 이 문제의 화살은 결국 또 인간을 향하게 된다.

저작권자 © 중대신문사 무단전재 및 재배포 금지