“이루다 사태 같은 인공지능 인권침해 방지 위해 규제 필요”

‘인공지능 챗봇 이루다가 던진 우리 사회의 과제’ 토론회 개최

2021-01-27     이종화 인턴기자
ⓒ문화연대 유튜브 화면 캡처

【투데이신문 이종화 인턴기자】 ‘이루다 사태’와 같은 인공지능 오사용 문제가 반복되지 않기 위해 법률기준 마련 등 제도적 규제가 필요하다는 목소리가 나왔다.

문화연대와 서울과학기술대학교 IT정책전문대학원 공동주최로 지난 26일 ‘인공지능 챗봇 이루다가 던진 우리 사회의 과제’ 온라인 토론회가 열렸다. 이날 유튜브를 통해 진행된 토론회에는 서울과학기술대학교 이광석 교수가 기조 발표를 맡았으며, 패널로는 경희대학교 비교문화연구소 손희정 연구교수, 진보네트워크센터 김민 활동가, 한국인공지능윤리협회 전창배 이사장, 박지환 변호사, 송수연 작가가 참석했다.

개발사 스캐터랩이 수백억개 대화내용을 스스로 학습하는 ‘딥러닝’ 기술을 적용해 만든 인공지능 챗봇 이루다는 지난달 23일 페이스북 메신저를 통해 서비스를 시작했다. 그러나 서비스가 시작된지 얼마 안돼 20대 여성으로 설정된 챗봇 ‘이루다’와 사용자 간의 성적인 대화를 담은 내용이 남성 커뮤니티 ‘아카라이브’에 게시되면서 사회적인 논란이 일었고, 이후 인종 차별적 발언을 비롯해 대화내용 학습을 위한 데이터 수집과정에서 개인정보 유출 문제까지 추가로 발생하며 지난 11일을 기점으로 서비스 운영이 중단됐다.

이날 토론회는 인공지능 오사용 문제의 재발 방지를 위해 관련 법률 기준을 구체화해야 한다는 의견이 주를 이뤘다.

기조 발표자로 나선 이 교수는 “이루다 사태는 인공지능 법규의 부실함을 이용한 개발자가 윤리적 책임을 지키지 않아 발생 된 것”이라며 “사용자를 기만한 정보인권 훼손과 성희롱 및 차별이라는 불편한 정서가 챗봇을 통해 표출된 우리 사회의 어두운 이면”이라고 지적했다.

아울러 “향후 인공지능 고도화에 따른 반인권 침해적인 문제 발생을 방지하기 위해 앞으로 정부의 구체적인 규제방안 마련과 여러 기관의 협력이 중요하다”며 기조 발표를 마쳤다.

이 교수의 연설이 끝난 뒤 패널들은 ‘이루다 사태’에 대해 다양한 견해들을 주고 받았다.

우선 인간의 권리 침해 등 윤리적 문제를 빌어 인공지능을 규제해야 한다는 의견이 나왔다. 손 교수는 “이번 이루다 문제는 여성성과 남성성 구별에 관한 사회의 고정관념을 더욱더 심화시키는 사건이 됐다”며 “인공지능 관련 차별금지 법규를 제정해 동일 문제가 재발되는 것을 방지해야 한다”고 촉구했고, 김 활동가는 “개인의 프라이버시를 고려하지 않고 인공지능 기술만 추구해 나타난 결과”라며 “기술의 발전을 고려하기 전에 개인의 권리를 보호하는 것이 더 중요하다”고 지적했다.

이밖에도 데이터 왜곡 문제를 언급하며 규제의 필요성에 동의한 송 작가는 “이루다 사태를 개인정보수집이나 유출에 관한 문제로만 한정짓고 있다”며 “방대한 대화내용을 수집하는 과정에서 적절한 내용 뿐만 아니라 사회의 인식에 반하는 내용까지도 수집될 수 있는데 이를 묵과해 문제가 발생한 것”이라 설명했다.

인공지능을 공존의 대상으로 보자는 시각도 있었다. 전 이사장은 “IT강국임에도 인공지능에 대한 관련 법 체계는 그동안 부족했던 것이 사실이다”라며 “그러나 인공지능의 전면적 규제는 국가의 발전을 저해시키는 것”이라 말했다. 마지막으로 “필요한 부분만을 최소로 규제해 인공지능과 인간이 함께 상생해 나가야한다”고 주장했다.