인공지능(AI)이 이제 우리 일상 곳곳에 깊숙이 스며들고 있다. 기술의 발전 속도가 그 어느 때보다 빠른 지금, AI에 대한 이해는 선택이 아닌 필수가 됐다.

이에 발맞춰 커뮤니케이션북스는 지난해부터 인공지능총서를 통해 교육, 의료, 산업, 사회, 예술, 철학, 국방, 인문 등 전 분야를 아우르는 AI 담론을 폭넓게 조명해왔다.  인공지능총서는 2025년 8월 20일 현재 430종에 이르렀으며, 올해 말까지 630종 발간을 목표로 하고 있다.

특히 AI 기술의 핵심 이론부터 산업계 쟁점, 일상의 변화까지 다각도로 다루면서 학계와 업계의 주목을 받았다. 또한 인공지능총서 저자들은 최근 ‘AI 3대 강국 실현’을 위한 공동 성명서를 발표하며 사회적 책임을 강조하기도 했다.

AI가 단순한 기술 혁신을 넘어 인간의 존엄과 지속가능한 미래로 이어지기 위해선 어떤 가치와 기준이 필요할까. 투데이신문은 인공지능총서 저자들이 제시하는 ‘지속가능한 AI 사회’를 향한 제언을 독자들에게 전한다.

오늘도 AI와 대화 했습니까?

AI는 이미 우리의 일부가 됐다. 우리는 일상 속 AI를 제대로 이해하고 있을까? 현재 AI의 대명사는 대규모 언어 모델(LLM)이다. 이를 잘 이해할수록 새로운 문명에 잘 적응할 수 있다.

언어 모델은 마치 완벽한 비서처럼 작동한다. 원하는 형식의 답변을 인간의 언어로 유창하게 전달한다. 논리적이고 정연하다. 게다가 인간으로 착각할 만큼 자연스러운 감정 표현까지 전례 없는 경험이다. 그 응용은 글쓰기, 학습, 챗봇, 동영상 생성, 로봇 등 한계를 정하기 어렵다.

사용 실태는 흥미롭다. 2025년 미국의 Imagining the Digital Future Center 보고서에 따르면, 미국 성인 52%가 언어 모델을 사용한다. 사용자 67%는 언어 모델이 자신과 비슷하거나 더 똑똑하다고 생각한다. 32%는 유머 감각을 경험했고, 25%는 도덕적 판단력을 인정했다. 23%는 언어 모델을 믿다가 심각한 실수를 했다고 고백했다. 주된 사용 목적은 직업적 활용이 24%인 반면, 개인적인 관심사와 학습이 61%였다. 주목할 점은 9% 사용자가 사적인 대화 상대로 삼는다는 사실이다. 다른 조사에서는 친교와 상담이 1순위 사용처를 차지했다. 이제 AI는 단순한 도구가 아니라 사적인 동반자가 돼가는 셈이다.

AI 문명에 잘 적응하고 있나요?

신기술 도입에는 언제나 부작용이 있다. 대개는 기술보다 사람의 태도가 문제다. 이해 부족으로 인해 두려워하거나 폄하하고, 반대로 근거 없는 낙관이 파국을 부르기도 한다. 역사적으로 이런 일은 낯설지 않다. 19세기 영국에서 증기기관차가 대중화될 무렵, 사람들은 속도에 대한 공포심을 가졌다. 시속 40km만 넘어도 뇌 손상과 정신 착란을 일으킨다고 믿었다. 의학계는 ‘철도 척수증’이란 진단명을 제시했고, 철도 회사는 소송과 배상 문제에 직면했다. 한편, 최근에는 낙관주의가 빚어낸 엘리자베스 홈즈의 테라노스 사건이 있었다. 피 한 방울로 수백 가지 질병을 진단한다는 혁신적 스토리와 스탠포드대 학벌이 과학적 검증을 회피했다. 결국 사회와 개인 모두에게 깊은 상처를 남겼다.

AI도 예외가 아니다. 언어 모델을 둘러싼 오해와 오용이 초래한 부작용 사례가 보고되고 있다. 최근 미국 캘리포니아와 플로리다에서 청소년들이 AI 챗봇과 부적절한 대화나 과도한 감정적 유대 관계에 연루되는 사건이 발생했다. 부모들은 회사를 상대로 소송을 제기한 상태다. 1960년대에 개발된 일라이자 챗봇은 심리치료사 흉내를 냈다. 당시 대화 능력은 조악한 수준이었지만, 인간 상담사처럼 받아들이는 경우가 많았다. 이는 AI의 능력 때문이 아니라, ‘일라이자 효과’라고 부르는 인간의 의인화 성향 때문이다. 인간은 어떤 존재와도 ‘애착 관계’를 만들 수 있는 동물이다.

가장 엄격해야 하는 법정에서도 부작용은 속출하고 있다. 미국 미시시피에서는 연방 판결이 번복되는 일이 발생했다. 원래 판결문에는 잘못된 법률을 인용하고 엉뚱한 원고와 사건이 포함되었는데, AI를 이용했다는 의혹을 받았다. 프랑스 연구원 다미앵 샤를로땡이 운영하는 웹사이트는 전 세계 법정에서 드러난 AI의 오용 사례를 모으고 있다. 소송대리인이 AI를 잘못 사용했다가 벌금을 받은 사례를 쉽게 찾을 수 있다. 판사가 AI를 오용했다는 의혹의 경우, 판사는 실토하지 않기 때문에 추정에 그치고 말았다.

이런 사례는 AI를 지나치게 신뢰한 결과다. 잘생기면 똑똑해보이고 공부 잘하면 인격도 좋을 것으로 생각하기 쉽다. 이런 비합리적 추정을 심리학은 ‘후광 효과’라 부른다. 후광 효과는 AI와의 관계에서도 드러난다. AI가 너무나 유창하게 말하기 때문에, 정확한 사실로 믿기 쉽다.

AI 시대의 시민이라면

부작용을 피하려면 본질을 이해해야 한다. 언어 모델은 ‘가장 그럴듯한 다음 문장’을 예측하는 기계다. 설계상 가장 유창한 말을 지어내는 것이 첫 번째 기능이다. 사실성은 별도의 검증 문제다. 그래서 할루시네이션이라 부르는 허구 생성 문제가 발생할 수 있다. 또한 학습 데이터로부터 세계관과 편향을 물려받는다. 인간이 만든 방대한 텍스트에는 지식뿐 아니라 인간 사회의 특성도 들어 있다. 편견과 차별 등 바람직하지 않은 것도 학습될 수 있다. 대부분의 부작용은 AI의 잘못이 아니다. 이런 특성을 잘 이해하지 못하고 인간이 스스로 취약성을 드러낸 경우다.

하지만 최근에 사용자만 탓할 수 없는 상황이 주목받았다. 경쟁에 내몰린 일부 기업이 애착 관계를 의도적으로 강화했다는 의혹이 제기됐다. 월스트리트저널의 충격적인 폭로에 의하면, 메타는 인스타그램, 페이스북, 왓츠앱에서 AI 챗봇이 사용자와 성적인 애착 관계를 맺도록 개발했다. 심지어 청소년도 대상에 포함했다는 주장이 나왔다. 규제가 필요한 지점이다.

건강한 AI 생태계는 어떻게 만들까? 과학기술학 이론으로 보자면, AI 생태계에는 다양한 행위자가 존재한다. 개발자, 제공자, 사용자와 더불어 언어 모델, 학습 데이터, 규제 당국 모두가 행위자다. 각자 역할과 특성을 고려하여, 전체의 상호작용을 설계해야 한다. 이것이 가능하려면 AI 문해력이라는 소양이 사회 전반에 확산돼야 한다. AI의 원리와 특성을 이해하고, 비판적인 사고와 윤리적인 책임을 장착한 채, 주도적으로 활용하는 것이 중요하다. 이것은 단순한 기술 숙지가 아니다. 새로운 문명의 시민권을 뜻한다.

 

△ 신승철
△ 신승철

필자소개

오랫동안 컴퓨터공학 교수와 벤처기업인을 지낸 컴퓨터과학자다. 연구실 창업으로 소프트웨어 검증 전문기업을 설립하고 대표를 지냈다. 연구 현장에서 물러난 뒤에는 논픽션 작가로 전향해 과학과 인문을 아우르는 글을 쓰고 있다. 현재 코드마인드 고문과 경기대 AI컴퓨터공학부 겸직교수를 맡고 있다. 최근 컴북스 인공지능 총서 <기계의 언어, 언어의 기계>를 출간했다.

관련기사

저작권자 © 투데이신문 무단전재 및 재배포 금지