《제6회 청년플러스포럼 ‘청년의 미래보증서 : AI 리터러시’》
[인터뷰] 국제인공지능윤리협회 전창배 이사장
AI는 인간의 행복 증진시키는 도구로서 사용돼야
AI 리터러시, 기술· 활용· 윤리 측면 모두 아는 것
미래세대 윤리 과제는 인간성과 기술 간 균형 유지
청년들, 기술과 윤리 조화롭게 발전토록 역할해야
투데이신문은 새로운 시대에 청년이 주도하는 발전적 시대를 도모하기 위해 매년 두차례 청년플러스포럼을 개최하고 있다. 청년들이 직접 주제를 선정한 제6회 포럼의 키워드는 ‘AI 리터러시’다. AI 리터러시는 AI 기술에 대해 이해하고, 그 기술을 의미 있고 책임감 있게 사용할 수 있는 능력을 뜻하며, 앞으로 AI와 함께 미래를 살아갈 청년들에게는 필수적인 역량으로 요구된다. 오는 9월 26일 오후 2시 페럼타워 페럼홀에서 열리는 이번 포럼에서는 AI 리터러시 함양의 필요성과 중요성, 활용 방안을 논의할 예정이다. 포럼 개최에 앞서 이번 포럼의 연사들과의 관련 분야 인터뷰를 통해 AI 리터러시와 관련한 △활용 △창업 △전략 △무경계(예술) △윤리 △미래는 무엇인지 살펴보고자 한다.
【투데이신문 청년플러스포럼 오영우 에디터】 인공지능(AI) 기술은 이제 더 이상 미래의 이야기가 아니다. 일상 속 깊숙이 스며들며 그 활용 범위는 날로 확장되고 있다. 하지만 AI 기술의 진화는 양날의 검과 같다. 이 기술이 가져다줄 잠재적 혜택은 막대하지만, 그와 함께 따르는 윤리적 문제는 우리의 사회적 책임과 직접적으로 맞닿아 있다.
최근 대한민국을 뒤흔든 ‘딥페이크’ 범죄, 즉 지인의 사진을 음란물에 합성하는 사건은 AI 기술이 윤리적 틀 안에서 다뤄져야 함을 다시금 상기시켰다. 성범죄, 사기, 명예훼손 등 범죄에 이용된 딥페이크는 단순한 기술 발전이 아니라, 우리가 직면한 새로운 차원의 윤리적 위기다. 이러한 맥락에서 우리는 AI 기술을 어떻게 받아들이고, 어떤 기준을 세워야 할지 고민할 시점에 서 있다. AI 리터러시, 즉 AI에 대한 이해와 책임감 있는 사용을 위한 교육이 중요해진 이유도 바로 여기에 있다.
기술이 인간의 삶에 가져다줄 변화는 긍정적이든 부정적이든 거부할 수 없는 현실이다. 하지만 이 변화가 인간성을 훼손하지 않도록 윤리적 기준을 세우는 것은 필수적이다. 인공지능의 무한한 가능성을 이끄는 한편, 그 기술이 인간의 가치를 위협하지 않도록 보호해야 하는 우리의 책임이 더욱 커지고 있다.
<투데이신문>은 인공지능 윤리 문제를 심층적으로 다루는 국제인공지능윤리협회(IAAE)의 전창배 이사장을 만나 AI 윤리의 중요성과 미래 사회에서의 역할에 관해 이야기를 나눴다. 전 이사장은 인공지능 기술의 급속한 발전 속에서 윤리적 고려가 어떻게 이뤄져야 하는지, 특히 청년들이 AI 리터러시와 윤리적 감수성을 동시에 키우는 것이 얼마나 중요한지를 강조했다.
Q. 먼저 국제인공지능윤리협회(IAAE)에 대한 소개를 해주신다면.
IAAE는 2019년 3월에 설립된 비영리 민간단체로, 인공지능 기술과 윤리의 조화를 목표로 활동하고 있다. 과학기술정보통신부에 등록된 사단법인으로, 인공지능 윤리의 중요성을 강조하는 국내 유일의 단체다. 협회는 인공지능 기술 발전과 함께 윤리적 고려가 필수적임을 주장하며, 안전하고 신뢰할 수 있는 인공지능 환경을 만들기 위해 노력하고 있다.
협회는 국내외 다양한 단체와 협력해 인공지능 윤리 교육 및 연구를 진행하고 있으며, 싱가포르에서 국제 콘퍼런스를 개최하는 등 국제적인 활동도 적극적으로 수행하고 있다. 또한, 인공지능 윤리 헌장과 같은 가이드라인을 발표해 기술이 윤리적 문제와 함께 다뤄질 수 있도록 방향을 제시하고 있다. AI 윤리는 국내뿐만 아니라 전 세계적으로 중요한 이슈이므로, 여러 국제기구들과 협력해 인공지능 윤리에 관한 연구, 교육 등 다양한 활동을 전개하고 있다.
Q. 어떠한 계기로 협회를 설립하게 됐는지 궁금하다.
협회를 만들게 된 가장 큰 이유는 우리 아이들 때문이다. 인공지능이 제대로 관리되지 않으면 우리 후손들이 더 큰 피해를 볼 수 있다는 생각이 들었다. 인공지능이 아이들에게 해를 끼치지 않고, 기술을 잘 활용할 수 있는 세상을 만들기 위해 협회를 설립하게 됐다.
Q. 최근 중점적으로 다루고 있는 AI 관련 윤리적 이슈는 무엇인가.
현재 가장 큰 문제는 딥페이크와 같은 생성형 AI의 악용이다. 딥페이크 기술이 발전하면서 성범죄, 사기, 저작권 침해 등 다양한 범죄에 악용되는 사례가 늘고 있으며, 이는 AI 기술이 발전함에 따라 더욱 심각해질 수 있는 문제다. 특히 딥페이크 기술은 누구나 쉽게 접근할 수 있기 때문에, 이를 규제하고 방지할 수 있는 법적 제도의 정비가 시급하다.
Q. 딥페이크 피해가 커지면서, AI 윤리에 대한 정책의 필요성이 대두되고 있다. 어떤 정책이 필요하며 중요하게 다뤄야 할 부분이 있다면.
첫째, AI 관련 법적 제도의 정비가 필요하다. 현재 딥페이크와 관련된 법적 제도는 아직 미흡하기 때문에, AI 기본법과 같은 포괄적인 법 제도를 수립해 AI 기술의 발전과 윤리적 문제를 균형 있게 다뤄야 한다. 이러한 법은 AI 기술의 윤리적 사용을 촉진하고, 범죄 발생 시 법적 대응의 일관성을 보장할 수 있어야 한다.
둘째, 딥페이크 탐지 기술과 같은 기술적 대응을 강화해야 한다. 딥페이크로 생성된 콘텐츠를 식별하고 차단할 수 있는 기술 개발이 필요하며, 이러한 기술을 법적으로 의무화할 필요가 있다. 이를 통해 범죄가 발생하기 전에 예방할 수 있는 기반을 마련하는 것이 중요하다.
마지막으로, AI 윤리 교육이 필수적이다. 정책적 대응과 더불어 교육을 통해 딥페이크 기술의 악용을 예방하고, 시민들이 AI 윤리에 대해 이해하고 책임감을 가질 수 있도록 해야 한다.
이 같은 법적, 기술적, 교육적 대응이 함께 이루어질 때, 딥페이크와 같은 문제에 대한 실질적인 해결책을 도출할 수 있을 것이다.
Q. 현재 논의 중인 ‘AI 기본법’에 대한 의견은.
AI 기본법은 기술 발전과 윤리적 안정성을 동시에 보장하는 중요한 법안이다. AI 기본법은 단순히 규제를 위한 법이 아니라, AI 기술과 산업을 장려하면서도, 사회적 안전과 윤리적 기준을 준수할 수 있도록 설계돼야 한다. 고위험 인공지능의 정의와 규제 조항, 그리고 안전 확보 방안이 포함돼야 하며, AI가 사회에 미치는 영향을 고려해 법적 안정성을 보장할 수 있는 역할을 해야 한다.
Q. AI 리터러시와 AI 윤리는 어떤 관계라고 보는가.
AI 리터러시와 AI 윤리는 밀접하게 연결돼 있다. AI 리터러시는 AI 기술의 이해와 활용 능력을 포함하는데, 그 안에는 AI 윤리에 대한 이해도 필수적으로 포함된다. 기술을 잘 활용하는 것만큼이나, 그 기술을 윤리적으로 사용하는 것이 중요하다. AI 기술, 활용법, 윤리적 측면을 모두 아는 것이 AI 리터러시의 핵심이라고 볼 수 있다. 특히, 미래 세대인 청소년들이 이를 습득하는 것이 매우 중요하며, 우리나라의 미래 AI 리더가 될 이들이 기술과 윤리를 동시에 이해하고 실천해야 할 필요가 있다.
Q. AI 리터러시를 갖춘 청년이 필요한 이유는.
청년들이 미래의 AI 리더가 될 것이기 때문이다. 청년들이 AI 기술을 잘 알고 창의적으로 활용하면서도, 그 기술이 사회에 미치는 윤리적 영향을 깊이 이해하는 것이 필수적이다. AI 리터러시가 높은 청년들은 기술을 책임감 있게 활용할 뿐만 아니라, 사회적 책임을 고민하며 AI를 올바르게 사용할 능력도 갖추고 있다.
Q. AI 분야에 진입하려는 청년들에게 필요한 기술과 윤리적 이해는 무엇이 있을까.
AI 분야에 진입하려는 청년들은 기술적 역량과 더불어 윤리적 이해를 균형 있게 갖추는 것이 매우 중요하다. 특히 AI 기술이 대중화되고, 이를 누구나 쉽게 사용할 수 있는 환경이 된 만큼, AI 기술을 활용하는 능력이 기본적으로 중요하다. 오픈 소스로 제공되는 AI 원천 기술을 기반으로, 다양한 AI 도구를 개발하고 응용하는 능력은 청년들이 AI 시대에서 경쟁력을 갖추기 위한 핵심 요소라고 볼 수 있다.
그러나 이러한 기술적 역량만으로는 충분하지 않다. AI 기술이 윤리적으로 사용될 수 있는 방향을 이해하고 실천할 수 있는 윤리적 감수성도 반드시 갖춰야 한다. AI가 인간의 생명, 신체, 정신, 재산에 영향을 미칠 수 있기 때문에, AI를 개발하는 과정에서 안전성과 신뢰성을 고려해야 하며, 개인 정보 보호와 초상권 침해와 같은 문제를 깊이 이해할 필요가 있다.
Q. AI 개발과정에서 윤리적 문제를 식별하고 해결하기 위한 실질적인 방법은 무엇이 있을까.
크게 교육적 해결, 기술적 해결, 정책적 해결 등 세 가지 방법으로 나눠 볼 수 있다. 교육적 해결 방법은 AI 기술을 다루는 사람들에게 윤리적인 의식을 심어주는 것이다. 많은 경우 AI 윤리에 대한 인식 부족이 윤리적 문제로 이어지기 때문에, 어릴 때부터 AI 윤리 교육을 필수적으로 실시해야 한다. 기술적 해결 방법으로는 딥페이크와 같은 문제를 기술적으로 탐지할 수 있는 딥페이크 탐지 기술을 개발하는 것이 있다. 이를 통해 AI가 악용되지 않도록 방지할 수 있다. 정책적 해결 방법은 법과 제도를 만들어 AI의 악용을 규제하고 처벌하는 것이다. 이는 AI의 발전과 동시에 윤리적 문제를 예방하고 해결하는 데 중요한 역할을 할 수 있다.
Q. 청년들이 AI 윤리에 대한 관심을 실천으로 옮기기 위해 시작할 수 있는 첫걸음은 어떤 것이 있는지.
가장 중요한 첫걸음은 교육을 통한 인식 제고라고 생각한다. 청년들이 AI 윤리 문제를 잘 이해하고, 올바르게 대처하려면 어렸을 때부터 AI 윤리에 대한 교육이 필수적으로 제공돼야 한다. 이를 통해 청년들은 AI 기술을 책임감 있게 사용할 수 있을 뿐만 아니라, 윤리적 문제에 대한 인식도 높아질 것이다. 이를 통해 윤리적 AI 실천의 기반을 구축할 수 있다.
Q. AI 기술이 사회 전반에 더 널리 퍼진다면, 미래 사회는 어떤 윤리적 도전에 직면할 것이라 보는지.
아마도 가장 큰 윤리적 도전은 인간성과 기술 간의 균형을 유지하는 문제일 것이다. AI가 발전하면서 인간과 비슷한 외모나 행동을 가진 로봇들이 등장할 때, 우리가 이들을 어떻게 대해야 할지에 대한 윤리적 문제가 발생할 수 있다. 예를 들어, 로봇을 폭력적으로 대하거나 부적절한 방식으로 대하는 것이 과연 정당한가에 대한 고민이 필요하다. 또, 기술이 인간성을 해치거나 해를 끼치는 방향으로 발전해서는 안 된다. 이러한 윤리적 도전을 해결하기 위해서는 사회 모든 주체가 함께 논의하고, 합의된 방식으로 문제를 해결해 나가는 것이 중요하다.
Q. 이상적인 AI와 인간의 관계는 어떤 모습일까.
AI는 인간을 돕고 행복을 가져다주는 도구로서의 역할을 해야 한다. AI와 로봇의 발전으로 가사나 친구 역할을 하는 로봇들이 등장할 수 있겠지만, 중요한 것은 우리가 인간성을 잃지 않는 것이다. AI는 어디까지나 인간을 모방하는 기술적 도구일 뿐, 인간성은 그 무엇보다도 중요하다.
Q. 마지막으로 청년들에게 한 말씀 해주신다면.
AI 기술과 윤리적 책임을 함께 인식하는 것이 중요하다고 말씀드리고 싶다. 청년들은 AI 기술을 잘 이해하고 활용하는 동시에, 윤리적 문제를 해결하는 데 앞장서야 한다. AI 윤리 교육에 참여하고, 기술이 인간성을 해치지 않도록 책임감 있게 사용하는 청년들이 필요하다. 기술과 윤리가 조화롭게 발전하는 사회를 만드는 데 청년들이 주도적인 역할을 해야 함을 잊지 않길 바란다.
