글로벌 빅테크 대거 참전 ‘경쟁 시작’
네이버 등 국내 기업들도 잇따라 관심
저작권·신뢰성·윤리 문제 해결이 관건
사회적 합의 및 합리적 규제 도출 시급

ⓒ게티이미지뱅크
ⓒ게티이미지뱅크

【투데이신문 변동휘 기자】 지난 2016년 전직 프로 바둑기사 이세돌과의 ‘세기의 대결’로 세계의 이목을 집중시켰던 AI(인공지능)가 있었다. ‘알파고’라는 이름의 이 인공지능은 전 세계인들에게 ‘AI의 시대’가 도래했음을 실감케 함과 동시에, 인간이 피조물에게 지배받는 세상이 올 수 있다는 공포를 함께 심어주기도 했다. 

이윽고 7년의 시간이 흐른 2023년, 챗GPT라는 또 다른 AI가 전 세계를 거대한 태풍 속으로 몰아넣고 있다. 앞서 알파고의 직접적인 영향이 ‘바둑’이라는 분야에 국한됐다면, 챗GPT는 대중들의 일상적인 생활까지도 직접 영향권으로 두고 있다는 점에서 그 파장이 더욱 크다고 할 수 있다. 실제로 구글을 비롯한 글로벌 IT 공룡들의 경쟁이 본격화되는 중이며, 네이버와 SK텔레콤 등 국내 IT업계도 눈독을 들이고 있는 상황이다.

전 세계가 챗GPT에 주목하고 있는 만큼, AI에 대한 논쟁 역시 격화되고 있다. AI가 생성한 텍스트, 이미지, 음악 등에 대한 저작권이 대표적이다. 또한 인공지능을 통해 만들어진 결과에 대한 신뢰도에도 의문이 제기되고 있으며, 이를 악용한 비윤리적 행위에 대한 우려도 더욱 커지고 있다. 하지만 AI 기술 활용에 대한 사회적 합의는 전세계적으로 아직 이뤄지지 못하고 있는 실정이라, 전 인류를 위한 혁신으로 자리매김하기 위해선 아직 많은 산을 넘어야 할 전망이다.

다시 열광하는 IT업계

챗GPT는 오픈AI가 개발한 언어모델 GPT 3.5 기반의 대화형 인공지능 챗봇으로, 사람의 피드백을 활용한 강화학습을 통해 자연스러운 대화를 나누고 질문에 대한 답변도 제공한다. 지식정보 전달을 비롯해 창의적 영역과 기술적 문제의 해결방안 제시 등이 가능하며, 기사 작성, 코딩 등 다방면으로 활용할 수 있다. 

이 같은 특성으로 인해 지난해 11월 공개 이후 일주일 만에 사용자 100만명을 넘기고 월 이용자 1억명을 돌파하는 등 AI에 대한 관심이 다시금 점화되고 있다. 

특히 글로벌 빅테크들이 이에 열광하고 있다는 점이 눈길을 끄는 부분이다. 오픈AI의 주요 투자자인 마이크로소프트는 자사의 검색 서비스 ‘빙’에 챗GPT를 결합한 서비스를 공개했다. 여기에 더해 MS오피스와 클라우드 서비스 ‘애저’ 등 자사 소프트웨어 전반에 관련 기능을 추가하겠다는 방침이다.

이에 맞서 구글도 초거대 언어 모델 람다(LaMDA) 기반의 AI 챗봇 ‘바드’의 출시를 공식화했다. 약 1370억개의 매개변수로 학습한 인공지능을 바탕으로 30억개의 문서와 11억개의 대화를 익혔다고 전해졌다. 구글의 모기업 알파벳은 지난 8일 개최한 행사에서 AI 기반의 새로운 검색시스템을 선보인 가운데 바드의 성능을 시연하기도 했으며, 수주 내로 상용 서비스를 시작하겠다는 방침이다. 

국내 기업들도 참전을 예고한 상태다. 네이버는 지난 3일 자사의 2022년 4분기 연간 실적발표를 통해 초거대 AI ‘하이퍼클로바’를 기반으로 하는 검색 경험 ‘서치GPT’를 선보이겠다고 밝혔다. 이날 최수연 대표는 “풍부한 사용자 데이터와 네이버의 기술 노하우를 접목해 생성AI의 단점인 신뢰성·최신성 부족과 해외 업체들이 영어 기반 개발모델을 한국어로 번역하면서 발생하는 정확성 저하 등을 해결할 수 있다고 자신한다”고 말했다. 최소한 한국 시장에서만큼은 주도권을 잡겠다는 뜻으로 해석되는 대목이다. 

SK텔레콤도 현재 오픈베타 중인 AI 서비스 ‘에이닷’을 더욱 확장해 연내 정식 출시하겠다는 방침이다. 한국어 GPT-3를 최초로 상용화한 역량을 바탕으로, 장기기억 기술을 도입하고 사진·음성 등 복합적인 정보를 이해할 수 있도록 하는 등 서비스 고도화에 나설 계획이다. 또한 국내외 유망 기업들과의 기술제휴를 통해 연내 정식 버전 출시와 수익화 모델 수립을 목표로 하고 있다. 

게임사들도 속도를 내는 모습이다. 엔씨소프트는 9일 자사 실적발표 컨퍼런스콜을 통해 챗GPT와 같은 언어 모델이 스토리와 캐릭터를 창작하면 이를 인터랙티브 게임에 도입하는 등 게임·콘텐츠 제작에 AI를 활용할 계획이며, 디지털 휴먼까지 연결되는 방향을 모색하고 있다고 밝혔다. 크래프톤도 기획, 스토리, 3D 모델, 프로그래밍 등 제작 단계에서 AI 도입을 가속하는 가운데, 궁극적으로는 유저의 화면을 인지하고 자연어로 대화하며 함께 게임을 하는 AI 게임친구 개발에 나설 방침이다.

챗GPT에게 직접 질문을 하고 답변을 받는 장면. 답변을 만들어가는 과정도 마치 사람과 대화하듯 자연스럽게 이뤄졌다. [자료 출처=챗GPT 갈무리]
챗GPT에게 직접 질문을 하고 답변을 받는 장면. 답변을 만들어가는 과정도 마치 사람과 대화하듯 자연스럽게 이뤄졌다. [자료 출처=챗GPT 갈무리]

부각되는 부정적 시각

다만 이 같은 흐름과 함께 AI의 상용화에 대한 부정적 의견들도 같이 부각되는 모습이다. 알파고 때는 막연한 두려움이었다면, 이번에는 보다 구체적이고 현실적인 우려들이 나오고 있는 것이다. 

대표적으로는 저작권 문제가 있다. AI가 텍스트나 이미지, 영상 등을 합성하는 과정에서 타인의 작품을 무단으로 활용할 가능성에 대한 우려도 제기되고 있으며, AI가 생성한 저작권을 인정할 수 있는지에 대한 부분도 논란이 예상된다. 미디어 업계에서는 실제로 이와 관련된 소송이 발생하고 있기도 하다.

이에 대해서는 각 기업들 간의 태도가 엇갈리는 모습이다. 이미지를 예로 들면, 셔터스톡은 오픈AI와 파트너십을 맺고 AI 기반 사진 생성도구를 제공받기로 한 반면, 게티이미지는 지난해 9월 AI가 생성한 합성 이미지 등록을 금지했다. 또한 인공지능 업체 스태빌리티AI를 고소하기도 했는데, 학습 과정에서 자사 이미지를 무단 사용했다는 것이 그 이유였다.

AI가 제시한 정보에 대한 신뢰성 문제도 제기되는 형국이다. 챗GPT의 경우 웹페이지를 기반으로 학습을 해왔는데, 그 과정에서 편향된 정보나 혐오 표현, 부정확한 정보를 학습해 사용자에게 제시할 수도 있다는 것이다. 이는 생성 AI가 가짜뉴스의 출처로 전락하거나 사이버 범죄에 악용될 가능성이 있다는 점에서 심각하게 받아들여지고 있는 문제이기도 하다. 

실제로 챗GPT는 약 2년 전까지의 정보만 학습한 상태라, 최신 정보들을 반영한 답변을 내놓지 못하고 있다. 지난 8일 ‘바드’ 시연에서는 부정확한 답변으로 인해 알파벳의 주가 급락을 초래하기도 했다. 

또한 챗GPT가 로스쿨 시험이나 의사 면허 시험 등을 통과할 수 있는 수준으로 알려지면서, 이를 악용하는 문제도 함께 제기됐다. 학생들이 챗GPT를 베껴 과제를 제출하는 등 부정행위 논란이 불거진 것이다.

이는 논문 대필 등 연구윤리 위반으로 이어질 수 있는 문제로, 이를 막기 위해 미국 뉴욕시 교육청은 공립학교 내 챗GPT 접속을 차단했다. 과학학술지 네이처와 사이언스는 챗GPT를 논문 저자로 인정하지 않기로 했으며, 국제머신러닝학회도 AI 도구를 이용한 논문 작성을 금지했다.

구글이 공개한 인공지능 챗봇 ‘바드’ [이미지 제공=구글]
구글이 공개한 인공지능 챗봇 ‘바드’ [이미지 제공=구글]

기술은 빠르고, 사회는 느리다

이 같은 문제가 불거지는 근본적인 원인은 기술의 빠른 발전에 비해 사회적 합의와 법제화는 다소 더디게 진행된다는 점이다. AI 기술은 아직 걸음마 단계라고 하지만, 이를 어떻게 활용해야 할지 등에 대한 사회적 합의는 아직 시작조차 요원한 상황이다. 일부 관련기업들의 경우 국내외 석학들과의 대담 등을 진행하는 등 몇몇 움직임들이 관측되고는 있지만, 이에 대한 공론화가 시급한 시점이다. 

챗GPT의 개발사인 오픈AI 미라 무라티 CTO(최고기술책임자)도 이에 대한 필요성을 강조했다. 그는 지난 5일 공개된 미 타임지와의 인터뷰에서 “우린 챗GPT를 내놓는 것에 대해 약간의 전율을 느꼈으며, 새로움과 순수함뿐만 아니라 어떤 부분에서 사람들을 위해 유용하게 쓰일 수 있을지 궁금했다”며 “AI 도구들은 오용되거나 악용될 수 있으며, 언어 모델을 기반으로 AI에 의해 구동되는 다른 도구와 마찬가지로 챗GPT도 없는 사실을 지어낼 수도 있다”는 우려를 전했다. 

이같은 우려를 해소하기 위한 방안으로 그는 사회 각계의 다양한 목소리를 포용하고, 이를 통해 사회적 합의를 도출해야 한다고 지적했다. AI 기술의 발전이 사회에 가져올 영향이 중대한 만큼 정부의 개입과 규제도 필요하며, 가능한 모든 사람들이 이 같은 사회적 논의에 참여해야 한다고 덧붙였다.

AI 기술의 위험성을 경고하는 목소리에 대해 무라티 CTO는 “기술은 우리를 형성하고 우리는 기술을 만들며, 모델이 원하는 대로 작동하게 하려면 어떻게 해야 하는지, 인간의 의도와 일치하는지, 궁극적으로 인류에게 봉사하는지 등 파악하기 어려운 문제가 많다”며 “사회적 영향에 대한 수많은 의문들과 다양한 윤리적·철학적 질문들이 있으며, 철학자, 사회과학자, 예술가, 인문학자 등 다양한 목소리를 끌어들여야 한다”고 말했다.

또한 그는 “전세계적으로 이 기술의 사용을 관리하는 방법과 관련해 ‘어떻게 인간의 가치와 일치하는 방식으로 AI 사용을 통제하는가’라는 의문이 있다”며 “오픈AI와 같은 기업들은 통제 가능하고 책임 있는 방식으로 이를 대중들의 의식에 불어넣어야 하지만 우리는 소수의 인원이며, 규제기관과 정부, 기타 모든 사람들의 개입이 필요하다”는 견해를 밝혔다. 

마지막으로 그는 규제 당국이 개입하기엔 이르지 않겠느냐는 질문에 “너무 이르지 않으며, 기술이 가져올 영향을 고려할 때 모든 사람들이 참여하는 것이 중요하다”고 전했다.  

저작권자 © 투데이신문 무단전재 및 재배포 금지