‘페미니스트가 함께 만든 AI 가이드라인’의 일부. 사진제공=한국여성민우회
‘페미니스트가 함께 만든 AI 가이드라인’의 일부. <사진제공=한국여성민우회>

【투데이신문 박효령 기자】 챗봇, 면접 등 활용 범위가 넓어지며 현재 우리의 삶에 녹아든 AI는 마치 공정에 가깝다고 하지만 오히려 AI가 가진 불투명성, 확산성으로 인해 새로운 차별이 생겨난다는 우려가 생기고 있다.

대표적인 예시로는 ‘딥페이크’ 기술이 있다. SBS ‘그것이 알고싶다’에서는 지난 2월 딥페이크 기술을 활용한 불법 합성물을 주제로 방송됐다.

해당 회차에서는 딥페이크에 관한 범죄를 다룬 후, 피해자 인터뷰를 대역이나 얼굴을 모자이크 하는 것이 아닌 딥페이크로 제작한 가상의 얼굴을 제작해 선보였다. 이는 어떤 관점을 갖고 활용하는지에 따라 기술이 전혀 다른 방식으로 사용될 수 있는, 그야말로 AI의 양면성을 잘 보여준 사례였다.

이처럼 날이 갈수록 발전하는 AI의 기술의 차별 문제를 대응하고자 한국여성민우회(이하 민우회) 성평등미디어팀은 지난달 17일 두 차례 라운드테이블을 거쳐 만든 ‘페미니스트가 함께 만든 AI 가이드라인’을 발표했다.

민우회는 “최근 20대 여성을 기반으로 만든 AI 챗봇 ‘이루다’가 혐오표현과 개인정보 유용 등의 논란으로 폐기된 사례, AI 이력서로 성차별 평가를 받은 아마존의 사례 등 AI 한계를 인지하고 더 이상의 차별을 막기 위해 가이드라인을 제작했다”고 제작 계기를 밝혔다.

라운드테이블 참여자는 각자의 고민이 담긴 가이드라인을 제시했으며, 성평등미디어팀은 그 내용을 모아 키워드로 분석했다. 키워드는 인공지능 윤리원칙 분석 보고서 ‘하버드 법대 버크만 센터의 원칙에 입각한 인공지능(Principled Artificial Intelligence)을 중심으로’에서 제시한 범주를 참고했다.

해당 가이드라인은 AI 개발 주체, 이용자, 정부 당국 등의 기본 원칙을 16개 키워드, 52개 항목으로 분류했다.

주요 키워드로는 개인 프라이버시와 친밀감을 침해하지 않는다는 ‘기본원칙’, 다양한 결과를 제공해야 한다는 ‘데이터 편향’, ‘알고리즘 편향’, ‘차별 금지’, 개인 노출을 방지해야 한다는 ‘개인정보보호’, 개발 주체의 사회적 책임을 담은 ‘책무성’과 ‘다양성’, 다수가 가이드라인을 마련하고 문제 해결에 다양한 주체가 참여해야 한다는 ‘이용자 의무’, ‘시민 참여’ 등이 있다.

가이드라인에서 민우회는 어떤 AI 기술을 개발할지 페미니즘 관점에서 논의가 필요하다는 기본원칙을 내놨다.

또한 AI 기술은 인간의 자율성을 존중하고 공동체의 미래와 더 나은 삶을 위해 기여해야 한다고 규정했다. 이에 발맞춰 AI로 인한 수익을 사회적으로 환원하는 것이 필요하다고 짚었다.

가이드라인에서 가장 강조된 부분은 ‘차별’이었다. 가이드라인에 따르면 온라인 상에 존재하는 AI 추천 시스템, 의료기술, 대화 기술, 인간화 표현 방식, 음성 인식 등의 분야에서 편향되지 않는 결과를 도출하는 게 중요하다. 인종, 종교, 장애, 성 정체성, 성적 지향, 사상, 정치 성향 등의 편견을 AI 시스템에 적용해서는 안 된다는 것이다.

AI 개발 주체에 대한 내용도 포함됐다. 개발 주체의 책무로는 발생하는 결과에 대해 법적·사회적 책임을 지녀야 하며, AI의 정보 수집에 있어 대상자에게 데이터 사용 여부를 고지하고 정보 제공을 거부할 수 있는 권리를 부여하는 것이 당부된다. 

아울러 다양한 정체성의 AI 기술을 개발하고 제작하고, AI 면접 결과로만 채용하는 것을 지양하도록 권고된다.

정부의 책무로는 기술의 사회적 영향력을 예측한 보고서를 제출하고 구성원 내 특정 성별이 60%를 넘지 않는 사업에 한해 지원하는 것이 제안됐다.

테크-페미 활동가이자 IT 개발자 조경숙 씨는 가이드라인의 참여한 소감에 대해 “모든 서비스가 개인정보 유출, 사이버 스토킹 등 처음부터 사전 대응할 수는 없었을 것”이라며 “사례가 보고됐다면 이후로는 비슷한 사건이 재발하지 않도록 ‘어떻게든’ 조치해야 하기 때문에 가이드라인을 만드는데 참여했다”고 말했다.

제작에 참여한 민우회 모리 회원은 가이드라인 발간집을 통해 “이미 일상 깊이 들어온 AI가 내 삶을 해치지 않으려면 무엇을 어떻게 할 수 있을까라는 생각에 참여를 결정했다”며 “향후 페미니스트 시각에서 가이드라인을 만들고, 실무자에 대한 교육을 강화하는 과정이 필요하다“고 강조했다.

민우회 윤소 활동가는 21일 본보와의 통화를 통해 “지난 2019년부터 KT의 인공 지능 스피커의 성차별 발언 관련해 대응 활동을 펼치던 중 ‘이루다 사태’를 만나 본격적으로 가이드라인을 추진하게 됐다”며 “추후 AI를 개발하는 기업들에게 해당 가이드라인을 전달해 젠더 관점에서 실질적인 성과를 얻는 게 목표”라고 설명했다.

관련기사

저작권자 © 투데이신문 무단전재 및 재배포 금지