ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 영화 'HER' 현실화하나…오픈AI, 공개한 'GPT-4o' 스펙 어떻길래
    지금 이곳에선 2024. 5. 14. 09:39

    영화 'HER' 현실화하나…오픈AI, 공개한 'GPT-4o' 스펙 어떻길래

    입력2024-05-14 06:02:50수정 2024.05.14 07:47:42 실리콘밸리=윤민혁 특파원

    오픈AI가 사람과 같이 사물을 인식하고 자연스러운 대화가 가능한 ‘옴니모델’ 인공지능(AI) ‘GPT-4o’를 공개했다. GPT-4o는 기본 GPT-4 터보보다 성능이 개선됐음에도 50% 저렴한 비용으로 구동 가능해 효율성이 더욱 높은데다 무료 사용자들에게도 제공될 계획이다. 오픈AI·마이크로소프트(MS) 진영이 구글 연례 최대행사 ‘구글 I/O’를 하루 앞두고 ‘폭탄’을 투척하며 초거대 AI 시장 패권 경쟁에 더욱 불이 붙고 있다.

    viewer

    미라 무라티 오픈AI 최고기술책임자(CTO)가 13일(현지 시간) 생중계를 통해 GPT-4o를 공개하고 있다. 오픈AI 유튜브 캡처

     

    13일(현지 시간) 오픈AI는 온라인 신제품 발표행사를 통해 최신 거대언어모델(LLM) GPT-4o를 공개했다. GPT-4o의 ‘o’는 옴니모델(Omnimodel)을 뜻한다. 언어 외 사진·음성 등을 함께 처리 가능한 멀티모달(MultiModal)을 넘어섰다는 의미다.

    이날 공개된 GPT-4o는 질문과 답변이 한 번씩 오가던 기존 음성 챗봇과 달리 농담 섞인 자연스러운 대화가 가능할 뿐 아니라 음성의 ‘말투’ 또한 다양하다. 이날 오픈AI가 시연한 GPT-4o는 로봇처럼 건조한 톤은 물론 뮤지컬 배우처럼 노래하듯 말하는 모습까지 보여줬다.

    GPT-4o 간 대화도 가능할 뿐 아니라, 서로 노래를 주고 받기도 한다.

    실시간 통번역도 가능하다. 이탈리아어를 GPT-4o가 영어로 번역해 말해주고, 영어로 대답하면 이를 다시 이탈리아어로 번역해 말하는 식이다.

    비전 인식도 더욱 개선됐다. 카메라를 통해 ‘시야’를 인식해 공간의 분위기나 사람의 기분을 이해함은 물론, 수식을 실시간으로 해석해 선생님처럼 풀이 과정을 안내해주기도 한다.

    이날 오픈AI는 간단한 수식 풀이 과정을 GPT-4o가 도와주는 모습을 시연했다. ‘3x+1 = 4’라는 수식을 보여주면 “x를 구하기 위해서는 1을 한 곳에 모아야 한다”고 답한다. 직접적인 풀이법을 제시하는 데서 끝나지 않고 ‘해법’을 차근차근 알려주는 것이다.

    viewer

    AI와 사랑에 빠진 남자의 이야기를 담은 영화 ‘her’

    GPT-4o는 AI비서와 남성이 사랑에 빠지는 2013년작 영화 ‘HER’을 연상케 한다. 샘 올트먼 오픈AI 최고경영자(CEO)는 행사 종료 후 자신의 엑스(X·옛 트위터)에 ‘her’라는 단어를 게시하며 영화를 의식한 듯한 모습을 보이기도 했다.

    올트먼 CEO는 자신의 블로그를 통해 “새로운 음성·비디오 모드는 사용해 본 최고의 컴퓨터 인터페이스로 영화에 나오는 AI 같은 느낌”이라며 “컴퓨터와 자연스러운 대화를 통해 이전보다 훨씬 더 많은 작업을 수행할 수 있는 흥미로운 미래를 실제로 볼 수 있게 됐다”고 밝혔다.

    GPT-4o는 기존 GPT-4 터보보다 뛰어난 성능을 자랑한다. 오픈AI는 수학·물리학·법학·윤리학 등 57개 과목을 테스트하는 다중언어작업이해(MMLU)에서 GPT-4o가 88.7%를 기록, GPT-4 터보의 86.5%와 구글 제미나이 울트라의 83.7%를 넘어섰다고 밝혔다.

    오픈AI는 “GPT-4o는 언어와 추론 및 코딩 지능에서 GPT-4 터보 수준이고 다국어, 오디오 및 비전에서는 새 최고 기록을 달성했다”고 전했다.

    기능성 개선에도 AI 구조는 더욱 가벼워졌다. 각 언어별 토큰 사용량이 GPT-4터보 대비 1.1~4.4배 줄었고, 앱인터페이스(API)는 기존보다 2배 빠르다.

    오픈AI는 GPT-4o의 평균 응답시간이 0.232초에 불과해 인간 평균인 0.32초보다도 빠르다고 밝혔다. 전작인 GPT-3.5와 GPT-4의 평균 응답 시간이 각각 2.8초, 5.4초에 달했음에 미뤄보면 혁신적인 발전이다. 모델 경량화는 곧 비용 절감과 직결된다. GPT-4o는 작동비용도 전작 대비 50% 저렴하다고 한다.

     

    viewer

    GPT-4o와 타 생성형AI 성능 비교표. 사진제공=오픈AI

    오픈AI는 덜어낸 처리량을 바탕으로 GPT-4o를 모든 사용자에게 무료 제공한다. 기존 무료 사용자에게 제공되던 GPT-3.5를 더 나은 성능의 GPT-4o가 대체하게 된다. AI 가동비용은 소수 유료 구독자와 기업 사용자들에게 충당할 계획이다. 올트먼 CEO는 “오픈AI의 임무는 유능한 AI 도구를 사람들의 손에 제공하공하는 것”이라며 “광고 없이 챗GPT에서 세계 최고 모델을 무료로 사용할 수 있게 돼 자랑스럽다”고 밝혔다.

    GPT-4o는 이날부터 글로벌 챗GPT 사용자들에게 순차적으로 적용된다. 지원 언어는 한국어를 포함해 50개다. 유료 구독자인 챗GPT 플러스 사용자에게는 메시지 제한이 5배 더 많다. 이날 시연한 ‘음성 모드’는 유료 가입자 대상으로 수 주 내에 제공될 예정이다. 오픈AI 최대 투자사인 MS 클라우드 ‘애져’에는 이날부터 GPT-4o가 도입된다.

    오픈AI·MS의 GPT-4o 발표는 초거대 AI·클라우드 경쟁사 구글의 연례 최대 행사인 구글 I/O를 하루 앞두고 기습적으로 이뤄졌다. 구글 잔칫상에 재를 뿌린 셈이다. 이제 테크업계의 시선은 구글 I/O에서 발표될 AI 신기능을 향한다. 오픈AI의 AI 발전 속도가 예상을 뛰어넘는다는 점은 ‘추격자’ 입장인 구글의 심정을 복잡하게 한다.

    다만 검색 시장 패권을 지닌 구글 입장에서는 오픈AI가 당초 예상되던 ‘GPT 검색’ 기능을 내놓지 않았다는 점이 위안거리다. 실제 이날 오픈AI 발표에도 구글 모회사 알파벳 주가는 0.36% 소폭 상승했다. 시장이 기존 구글이 지닌 검색 시장 점유율에는 타격이 없다는 판단을 내린 셈이다.

     

    https://www.sedaily.com/NewsView/2D96ODCLDV

    댓글

Designed by Tistory.