다음 내용이 궁금하다면?
불편하시다면 뒤로 가기를 눌러주세요
텍스트·이미지 동시 이해·추론하는 비전-언어 모델
AI 시각 능력 점수서 주요 글로벌 모델 앞서
(서울=연합뉴스) 김민지 기자 = LG AI연구원은 멀티모달 인공지능(AI) 모델 '엑사원(EXAONE) 4.5'를 공개했다고 9일 밝혔다.

[LG 제공. 재판매 및 DB 금지]
엑사원 4.5는 LG AI연구원이 자체 개발한 비전 인코더(Vision Encoder)와 거대언어모델(LLM)을 하나의 구조로 통합한 비전-언어 모델(VLM)로, 텍스트와 이미지를 동시에 이해하고 추론한다.
특히 계약서, 기술 도면, 재무제표, 스캔 문서 등 산업 현장에서 실제로 다루는 복합 문서를 읽고 추론하는 데 강점을 보였다.
LG AI연구원이 공개한 벤치마크 점수에 따르면 엑사원 4.5는 과학·기술·공학·수학 성능을 측정하는 5개 지표에서 평균 77.3점을 기록해 미국 오픈AI 지피티5-미니(73.5점), 앤트로픽 클로드 소넷 4.5(74.6점), 중국 알리바바 큐웬3 235B(77.0점)를 모두 앞섰다.
일반 시각 이해를 측정하는 3개 지표와 문서 이해 및 추론 성능 평가 지표 5개를 포함한 13개 지표 평균 점수에서도 글로벌 동급 모델을 상회했다. 코딩 성능을 대표하는 라이브코드벤치 v6에서는 81.4점으로 구글의 최신 모델 젬마 4(80.0점)를 넘었다.

[LG 제공. 재판매 및 DB 금지]
330억개 파라미터 규모(33B)인 엑사원 4.5는 지난해 말 공개한 'K-엑사원'의 약 7분의 1 크기로 텍스트 이해 및 추론 영역에서 동등한 수준의 성능을 달성해 효율성을 높였다.
공식 지원 언어는 한국어와 영어 외 스페인어, 독일어, 일본어, 베트남어까지 확대됐다.
LG AI연구원은 이날 엑사원 4.5를 글로벌 오픈소스 플랫폼인 허깅페이스(Hugging Face)에 연구·학술·교육 목적으로 사용할 수 있도록 공개했다.
이진식 LG AI연구원 엑사원랩장은 "엑사원 4.5는 LG AI가 텍스트를 넘어 시각 정보까지 이해하는 멀티모달 시대로 진입했음을 보여주는 모델"이라며 "이번 모델을 시작으로 음성과 영상, 물리 환경까지 AI의 이해 범위를 확장해 산업 현장에서 실질적으로 판단하고 행동하는 AI를 만들어가겠다"고 밝혔다.
한편, LG AI연구원은 엑사원 4.5을 기반으로 독자 AI 파운데이션 모델 프로젝트에 개발 중인 'K-엑사원'의 모달리티 확장에 나설 계획이다.
물리적 세계를 이해하고 판단하는 피지컬 인텔리전스로 엑사원을 발전시키는 것이 목표다.
jakmj@yna.co.kr
Copyright 연합뉴스 All rights reserved. 무단 전재 및 재배포 금지.
인기상품 확인하고 계속 읽어보세요!
원치 않을 경우 뒤로가기를 눌러주세요.
