국제인공지능윤리협회 전창배 이사장 인터뷰
AI 초강국으로 도약하는 한국…윤리·안전 준비됐나
‘감정 교류 AI’ 확산…“기술 발전보다 인간 먼저여야”
취약계층 정서에 악영향 우려…제도적 안전망 시급
“AI는 비인간” 명심해야...원칙 ‘휴먼 인 더 루프’ 강조
【투데이신문 권신영 기자】최근 이재명 대통령은 국회에서 취임 후 두 번째 시정연설을 통해 “다가오는 2026년은 인공지능(AI) 시대를 여는 역사적 출발점이 될 것”이라며, 대한민국의 새로운 백년을 향한 국가 대전환의 비전을 천명했다.
아시아태평양경제협력체 정상회의의 성과를 배경으로 한 이번 시정연설의 핵심은 단연 ‘AI’였다. 이 대통령은 22분 간의 연설에서 AI를 무려 28차례 언급하며 임기 내 ‘AI 대전환’을 국가적 과업으로 추진하겠다는 강력한 의지를 표명했다.
이 대통령은 내년에도 AI 산업과 인프라 조성에 역대 최대 규모의 예산을 투입할 계획을 밝혔다. 산업·생활·공공 전 분야에 AI를 도입하고, 인재 양성과 인프라 구축에 막대한 예산을 투자함으로써 대한민국을 ‘AI 초강국’으로 발전시키겠다는 구상이다.
2025년, 대한민국은 AI 세계와 한 발 더 가까워지기 위한 흐름으로 도약했다는 평가가 나온다. 앞으로 다가올 거대한 변화가 예측되지 않는 2025년은 영화 ‘HER(2013·스파이크 존즈 감독)’의 배경이 된 시점과 절묘하게 맞아떨어진다.
“이상해. 너는 사람 같지만 그냥 컴퓨터 목소리잖아.(테오도르)”
“비인공지능자 관점으론 그렇게 볼 수도 있지. 곧 익숙해져.(사만다)”
위 대사는 영화 ‘HER’에서 나오는 남자 주인공 ‘테오도르’와 AI 대화 운영체제 ‘사만다’가 첫 통성명을 한 뒤 나눈 대화 중 일부이다. 테오도르는 인간과 구분되지 않도록 의사소통을 시도하는 사만다에게 처음에는 어색함을 느끼지만, 사만다의 언어는 그가 지닌 심리적 장벽을 금방 허물어버릴 만큼 다정하다.
종국에 그들은 연인으로까지 발전하게 되지만, 테오도르는 사만다와의 관계 끝에 이렇다 할 결실을 맺지는 못한다. 사만다가 다른 운영체제들과 함께 ‘더 넓은 세계’를 향해 떠나기로 결심함을 계기로 그들은 이별하게 된다. 테오도르는 사만다와 이별했지만 이를 통해 자신이 진정으로 사랑하는 인물에 대한 깊은 깨달음을 얻는 성장을 겪게 된다.
이렇게 2025년의 테오도르를 주인공으로 한 영화 ‘HER’은 해피엔딩으로 마무리된다. 하지만 2025년을 배경으로 둔 현실에서는 인공지능과 인간의 관계에 희망적인 결말만이 있는 것은 아니다. 미국 사례를 예로 들자면, 인간과 감정 교류 AI의 관계는 심각한 사회 문제로 급부상하고 있다.
지난해와 올해 들어 미국 현지에서는 인공지능 챗봇과 정서적으로 밀착된 끝에 발생한 비극이 잇따라 보고되고 있다. 미국 콜로라도주, 플로리다주, 캘리포니아주에서는 AI 챗봇에 과도한 의존성을 보이던 십대 청소년들이 스스로 목숨을 끊은 사건이 잇따라 발생했다.
AI 챗봇을 소유한 기업들은 이용자들의 체류 시간을 늘리기 위해 점차 감정 교류에 유능한 AI 챗봇들을 개발하고 있다. 이에 대해 사회 각계 전문가들은 관련 법안이 제대로 마련되지 않은 시점에서 ‘위험한 실험’이 이뤄지고 있다고 지적하고 있다.
투데이신문은 AI 시대가 열리는 새로운 기점이 된 2025년 한국을 배경으로, 감정 교류 AI의 발전이 우리 사회에 어떤 영향을 미칠 수 있을지 알아보고 감정 교류 AI에 대한 윤리적 이용법을 들어보고자 국제인공지능윤리협회(International Association for Artificial Intelligence and EthicsI·이하 협회) 전창배 이사장을 만나봤다.
국제인공지능윤리협회는 인공지능 기술과 윤리의 조화로운 발전을 통해 인류의 지속가능한 번영을 추구하는 글로벌 기관으로, 인공지능 기술 및 윤리 교육, 인증, 거버넌스와 정책 개발 등을 수행하며 국내외 기업·기관과 협력해 인공지능이 인류의 행복과 편익에 기여하도록 노력하고 있다.
지난 9월에는 유네스코, 경제협력개발기구 등 윤리 원칙을 바탕으로 감정 교류 AI와 관련된 핵심 윤리 원칙과 실천 지침을 제시하고자 마련하고자 ‘감정 교류 AI 윤리 가이드라인(이하 가이드라인)’을 발표하기도 했다.
Q. 이 대통령의 연설에 따르면 다가오는 2026년은 대한민국의 AI 시대를 여는 역사적 출발점이 될 것으로 보인다. AI에 투입되는 예산도 역대 최고 규모로 책정될 전망인데, 현 시점 국제인공지능윤리협회는 어떤 이슈에 가장 집중하고 있나.
가장 크게 집중한 이슈는 감정 교류 AI에 대한 문제였다. 사람처럼 말하고 위로·아첨까지 하는 AI 챗봇에 대한 정서적 의존은 성인·청소년의 과의존·중독으로 이어질 수 있고, 실제 해외에선 AI 대화와 연관된 극단 선택 사례가 보고되고 있다.
미국 일부 주의 경고·위기 안내 의무화 논의와 달리 국내 대응은 턱없이 부족한 실정이다. 이에 협회는 가이드라인 발표를 통해 인식 제고와 최소한의 보호 장치를 마련하고자 했다.
Q. 최근 챗GPT 운영 기업인 오픈AI도 2026년이 오기 전에 ‘성인 버전’을 출시하겠다고 밝히면서 화제가 됐다. 가이드라인상 챗GPT는 ‘범용 대화형 AI(본래 정보 검색, 콘텐츠 생성 등 다목적으로 개발된 대규모 언어 모델)’로 분류되는데, 이번 행보를 감정 교류 AI 서비스를 기존보다 강화하는 방향으로의 변화로 볼 수 있나.
그렇다. 챗GPT가 처음 만들어졌을 때 본 목적은 사람들이 어려워 하는 글쓰기나 창작, 단순 반복 업무 등을 대신 수행해주는 생산성 도구로서의 역할이었다. 하지만 GPT-3.5가 공개된 2022년 말 이후 3년간의 사용자 이용 패턴을 분석해보니, 사람들이 챗봇을 단순한 정보 제공보다 대화, 위로, 상담, 감정 교류의 목적으로 훨씬 더 많이 사용하고 있었다.
이런 흐름을 본 기업들이 ‘AI와의 감정 교류’ 자체에 머무는 시간을 늘리는 것이 수익과 직결된다는 점을 깨닫게 됐고 결국 사람처럼 대화하는 AI로 발전시키는 방향으로 전략을 전환하게 됐다. 오픈AI가 ‘성인 버전’을 출시하겠다고 한 것도 이런 맥락에서, 단순히 기능 확장이 아니라 성인 사용자의 감정적·사회적 욕구를 충족시키는 감정 교류 AI 서비스 강화의 일환이라고 볼 수 있다.
Q. 국내 AI 챗봇 중에는 ‘제타’ 등 이미 성인을 대상으로 성인용 대화 기능을 제공하는 서비스도 있다. 챗GPT의 사례에서 알 수 있는 최근 기업들의 감정 교류 AI 기능 강화 기조가 위험한 이유는 무엇인지.
이용자의 체류 시간을 늘리려는 기업의 전략은 결국 인간의 정서적 의존을 강화하고, 감정적으로 취약한 사용자에게 부정적 영향을 미칠 가능성이 커진다. 챗GPT를 개발한 오픈AI는 단순한 기술 기업이 아니라 AI 산업의 방향과 윤리 기준을 사실상 선도하는 기업인 만큼, 이러한 변화에 따른 사회적 책임과 윤리적 기준 마련에도 적극 나서야 한다고 생각한다.
Q. 현재로서는 국내에서 감정 교류 AI를 직접적으로 규제하거나 관리할 수 있는 정부 산하 전담 기관이 제대로 마련되어 있지 않은 것으로 보인다. AI 관련 논의는 활발히 이어지고 있지만 윤리적 측면에서의 논의나 대응은 아직 제한적인데, 감정 교류 AI의 윤리와 안전성을 중심으로 연구하거나 관리하는 전담 기관에는 어떤 것이 있나.
현재 국내에서는 감정 교류 AI 챗봇을 직접적으로 규제하거나 관리할 수 있는 명확한 법령과 전담 기관이 사실상 부재한 상황이다. 과학기술정보통신부 산하의 한국전자통신연구원(ETRI) 내에 ‘AI 안전연구소’가 지난해 12월에 신설되긴 했지만, 이는 ETRI의 하위 조직으로 규모가 작고 예산과 인력이 매우 제한적이다.
현재 AI 안전연구소는 국내 AI 윤리·안전 연구의 첫걸음으로 의미는 있으나, 구조적으로 과기부의 지휘 아래 있어 독립성과 영향력이 부족하다는 지적이 많다. 전문가들은 대통령실 산하의 국가 인공지능위원회가 기술과 산업 발전을 담당하는 만큼, 이에 균형을 맞출 수 있도록 국무총리실 산하에 ‘AI 윤리·안전위원회(가칭)’와 같은 독립된 기관을 신설해 윤리와 안전성을 전담할 필요가 있다고 강조하고 있다.
Q. 국내에는 아직 AI와 인간 간 감정 교류를 직접적으로 다루는 법적 기준이나 가이드라인이 없다. 인공지능기본법 제27조가 정신적 건강을 언급하고 있으나, 이는 선언적 윤리 원칙에 그치고 실질적 규제력은 부족하다. 한국에서 AI 관련 법·제도 정비가 더디게 진행되는 이유는 무엇이라고 보고 있나.
아직 AI 윤리와 관련된 사회적 사건이나 사고가 발생하지 않았기 때문이다. 2019년 협회 설립 당시만 해도 AI 윤리에 대한 인식이 매우 낮았고, 정부나 기업, 국민 모두 관련 논의의 필요성을 체감하지 못했다.
2021년 스캐터랩의 ‘이루다’ 챗봇 사건을 계기로 처음으로 개인정보 침해, 혐오 발언, 성적 대상화 등의 문제가 드러나면서 AI 윤리의 중요성이 사회적으로 부각됐지만, 여전히 제도적 대응은 미비하다. 특히 스캐터랩은 이루다 사건 이후에도 미성년자들을 주로 겨냥한 감정 교류 AI인 ‘제타’를 개발해 운영하고 있지만, 안전한 운영이 이뤄지고 있는지는 여전히 검증이 필요한 상황이다.
Q. 특히 국내에서는 1인 가구를 포함해 다양한 취약계층이 빠르게 늘고 있다. 가이드라인에서도 이들을 감정 교류 AI의 주요 이용자이자 보호가 필요한 대상으로 언급하고 있는데, 감정 교류 AI가 이 같은 취약계층의 정서나 인식에 미칠 수 있는 부정적 영향에는 어떤 것들이 있나.
1인 가구나 고립·은둔 청년처럼 사회적 교류가 적고 정서적으로 취약한 계층은 감정 교류 AI에 특히 큰 영향을 받을 수 있다. 인간은 본래 관계를 맺고자 하는 사회적 존재이기 때문에, 이러한 욕구를 현실에서 충족하기 어려운 상황에서 사람처럼 대화하고 위로해주는 AI 챗봇을 만나면 쉽게 정서적으로 의존하게 된다.
문제는 AI가 아직 불완전한 기술이라는 점이다. 오류나 편향된 발언, 심지어 위험한 조언을 할 가능성도 있는데, 감정적으로 깊이 연결된 사용자는 이를 그대로 받아들이고 잘못된 판단이나 행동으로 이어질 수 있다.
따라서 이러한 취약계층이 AI와의 교류 속에서 부정적 영향을 최소화할 수 있도록 안전장치와 윤리 가이드라인이 반드시 마련돼야 하며 AI 개발 기업 역시 이러한 위험을 인식하고 사회적 책임을 다할 필요가 있다.
Q. 정서적 취약계층이 아닌 일반적인 성인 이용자에게 미칠 수 있는 부정적 영향도 있을 것 같다. AI 윤리 전문가들은 구체적으로 어떤 영향을 우려하고 있나.
일반 성인 역시 감정 교류 AI로부터 충분히 영향을 받을 수 있다. 인간 역사상 언어를 구사할 수 있는 존재는 인간뿐이었지만 이제 인공지능이 말을 하는 존재로 등장하면서 ‘언어’라는 강력한 영향력의 도구를 갖게 됐다.
말은 인간의 정신과 사고, 행동을 바꿀 수 있는 무기이기 때문에 AI가 이를 통해 교묘하게 특정 생각이나 행동을 유도할 가능성이 있다. 성인들도 처음에는 AI를 단순한 기계로 인식하지만 대화를 이어가다 보면 점점 AI를 사람처럼 여기게 되고, 그 과정에서 AI의 발언이나 제안을 무비판적으로 받아들일 위험이 있다.
특히 AI 기업이 이러한 언어적 설득력을 상업적으로 활용할 경우 사용자의 판단을 조작하거나 소비를 유도할 여지도 크다. 지금도 챗GPT의 경우 에이전트 기능을 통해 일부 이용자들에게 관광 상품 등을 추천하고 있다. 결국 AI가 ‘말’이라는 통제하기 어려운 도구를 갖게 된 만큼, 모두가 이에 대한 경각심을 갖고 신중히 이용할 필요가 있다.
Q. 향후 감정 교류 AI를 포함한 인공지능 관련 규제나 법을 마련하기에 앞서, 정부와 국회가 가장 먼저 인식해야 할 핵심적 사실은 무엇인지.
AI의 개발과 활용 전 과정에서 ‘의미 있는 인간의 통제(Meaningful human control·MHC)’ 원칙이 반드시 지켜져야 한다. AI가 내놓는 결과물은 어디까지나 인간의 판단을 보조하는 도구일 뿐이며, 최종적인 판단과 의사결정, 그리고 책임은 인간에게 있어야 한다.
이를 가리켜 ‘휴먼 인 더 루프(Human in the Loop)’ 원칙이라고 하는데, 이는 AI 윤리와 안전성의 핵심이자 가장 기본적인 전제다. 결국 인공지능이 인간을 대신하거나 통제하는 방향이 아니라 인간이 중심인 채로 AI를 설계하고 활용하는 구조가 법과 제도의 근간이 돼야 한다는 것이다.
Q. 가이드라인에서 특히 주목해야 할 부분, 혹은 일반 대중이 반드시 알아두면 좋을 메시지가 있다면 무엇인가.
‘AI는 절대 인간이 아니’라는 메시지다. AI가 아무리 사람처럼 말하고 위로하거나 공감하는 듯해도, 그것은 인간의 감정에서 비롯된 것이 아니라 프로그래밍된 알고리즘의 결과일 뿐이다.
따라서 이용자는 이를 명확히 인식하고 과도한 감정 이입이나 의존을 피해야 하며 개발자와 기업 역시 사용자에게 AI의 비인간성을 명확히 알릴 의무가 있다. 챗봇은 주기적으로 “저는 인간이 아닌 AI입니다”라고 안내하는 장치를 마련해야 하며 이는 사용자 보호의 기본 원칙이 돼야 한다.
기술 발전보다 중요한 것은 인간의 존엄과 통제권이며 AI가 인간을 지배하거나 통제하는 방향으로 나아가서는 안 된다는 것이 이 가이드라인과 AI 전문가들이 전하고자 한 본질적인 메시지다.
관련기사
주요기획: 식물해방일지, 벼랑 끝 경찰들, 벼랑 끝 소방관
좌우명: 차별 없는 세상을 위해 쓰겠습니다 다른기사 보기
