[이미지 출처=오픈AI 공식 홈페이지]
[이미지 출처=오픈AI 공식 홈페이지]

【투데이신문 변동휘 기자】 챗GPT로 전세계의 이목을 집중시킨 AI(인공지능) 개발사 오픈AI가 대규모 언어 모델(LLM) GPT-4를 발표했다. 정확도와 처리속도가 향상되고 이미지까지 인식하는 등 ‘더 똑똑해진’ 모습이다.

오픈AI는 14일 오후 1시(태평양 표준시) 개발자 라이브스트림을 통해 GPT-4의 출시 소식을 알렸다. 이날 스트림에서는 오픈AI 공동 창업자인 그렉 브록만 사장이 출연해 라이브 데모를 시연했다. 

GPT-4는 챗GPT에 적용된 GPT-3.5의 업그레이드 버전으로, 비약적인 성능 향상을 비롯해 인식범위 확대 등 더욱 강력해진 기능을 탑재한 것이 특징이다. 

2만5000단어 이상의 텍스트를 처리할 수 있으며, 이를 바탕으로 롱 폼 콘텐츠 생성과 확장된 대화, 문서 검색 및 분석 등 창의성 부분이 크게 개선됐다. 작곡, 각본 작성, 글쓰기 스타일 학습 등 창의적인 작업들을 사용자와 함께 할 수 있다는 것이 오픈AI 측의 설명이다.

추론능력이 더욱 향상된 것도 눈에 띈다. 예를 들어 일정이 각기 다른 3명이 모이는 30분간의 회의를 잡을 때, 이들 모두의 빈 시간을 분석해 일정을 조율할 수 있다. 또한 멀티 모달 기능을 적용해 이미지 입력 및 분석이 가능해졌는데, 식재료들이 담긴 사진을 입력하면 이들을 활용해 만들 수 있는 요리들과 조리법을 작성해준다. 

특히 오픈AI 측은 안전성과 정확성 확보를 위해 6개월의 시간을 소비했음을 강조했다. 그 결과 내부 평가에서 GPT-3.5보다 허용되지 않은 콘텐츠에 대한 요청에 응답할 확률을 82% 낮췄으며, 사실적인 응답을 생성할 확률을 40% 높였다고 밝혔다. 

이 같은 개선사항을 바탕으로 GPT-4는 미국 모의 변호사 시험에서 상위 10%의 성적을 거뒀으며, SAT(미국 대입 시험) 읽기와 수학에서는 각각 상위 7%와 11%를 기록했다. 

이날 오픈AI는 GPT-4의 API를 개발자들에게 공개했으며, 유료 서비스인 챗GPT+에도 적용했다. 마이크로소프트 검색 엔진인 빙 챗봇에도 연동되며, 어학 앱 ‘듀오링고’를 포함한 각종 응용 서비스들을 함께 선보였다.

오픈AI 샘 알트만 CEO(최고경영자) 겸 공동창업자는 자신의 트위터를 통해 “GPT-4는 지금까지 가장 뛰어나고 잘 정돈된 모델”이라며 “이전 모델보다 더 창의적이고 환각 현상(사실이 아닌 답을 생성하는 현상)도 덜 발생하며, 덜 편향적”이라고 말했다. 

관련기사

저작권자 © 투데이신문 무단전재 및 재배포 금지