네이버가 지난 6월 공개한 추록 특화 모델 '하이퍼클로바X 씽크'. (사진=네이버)

정부가 주도하는 '독자 AI 파운데이션 모델' 공모전이 21일 마감된다. 초거대 언어모델(LLM)을 보유한 'AI 국가대표' 후보들의 경쟁이 본격화되면서, 소버린 AI 개발 주도권을 둘러싼 승부가 펼쳐질 전망이다.

21일 업계에 따르면 과기정통부 주관 '독자 AI 파운데이션 모델' 공모전에 네이버, LG AI연구원, SK텔레콤, KT 등 국내 주요 IT 기업들이 참여의사를 밝힌 것으로 나타났다.

이번 공모전은 과학기술정보통신부가 주관하고, 정보통신산업진흥원(NIPA), 한국지능정보사회진흥원(NIA), 정보통신기획평가원(IITP) 등이 공동 추진한다.

공모전에 참여하는 팀은 글로벌 모델 대비 95% 이상의 성능을 목표로 설정, 개발 전략을 제시해야 한다. 선발된 최대 5개 정예팀에는 오는 2027년까지 약 2000억 원 규모의 예산과 GPU, 데이터, 인재 등 핵심 인프라가 지원된다.

평가에는 국내외 AI 전문가가 참여한다. 선발된 팀은 6개월 단위 단계평가를 거쳐 성과에 따라 압축된다. 이를 통해 독자적인 국내 AI 모델을 발굴하고, 사회 전반의 AI 전환을 앞당기겠다는 게 정부의 구상이다.

이에 참가 기업들은 차별화된 기술력과 오픈소스 생태계 기여 실적, 한국어·한국 문화 문맥 이해 등에서 강점을 내세우며 경쟁을 본격화하는 모양새다.

먼저 네이버가 유력한 후보군으로 언급된다. 네이버는 한국어 특화 모델 '하이퍼클로바X'를 보유하고 있으며, 지난 6월 이를 바탕으로 추론 능력을 강화한 생성형 AI 모델 '하이퍼클로버X 씽크'를 선보인 바 있다. 특히 이재명 정부의 AI미래기획수석으로 영입된 하정우 전 네이버클라우드 센터장이 해당 모델의 개발에 참여한 만큼 정책적 시너지도 기대된다는 평가다.

네이버에 따르면 '하이퍼클로버X 씽크'는 한국어 전문가 '코발트(KoBALT)-700' 벤치마크에서 국내 주요 추론 모델이나 글로벌 오픈소스 모델보다 높은 점수을 기록했다. 언어뿐 아니라 시각 정보를 바탕으로도 추론할 수 있는 기술을 확보했다는 게 회사 측의 설명이다.

LG AI연구원 '엑사원 4.0'의 벤치마크 성능 비교. (사진=LG AI연구원)

LG AI연구원은 '엑사원(Exaone)' 모델을 기반으로 컨소시엄을 구성할 가능성이 높다. '엑사원'은 추론형 멀티모달 모델로, 텍스트뿐 아니라 이미지, 도표 등 다양한 입력을 통합적으로 처리할 수 있는 구조를 갖춘 것이 특징이다.

LG AI연구원은 지난 3월 추론 특화 모델 '엑사원 딥'을 선보인 데 이어, 이달 15일엔 차세대 모델 '엑사원 4.0'을 공개했다. 이 같은 AI 모델을 LG전자, LG엔솔, LG화학 등 계열사의 산업 현장에서 활용하며 쌓은 노하우가 LG그룹의 강점이라는 평가다.

통신사들도 AI 모델을 지속 선보이고 있다. 먼저 SK텔레콤은 지난 3일 한국어 특화 LLM '에이닷 엑스(A.X) 4.0'을 오픈소스로 공개했다.

해당 모델은 오픈AI의 'GPT-4o'보다 한국어 처리 능력이 30% 이상 높으며, 기업 내부 서버에 직접 설치해 사용할 수 있는 온프레미스 방식으로 제공된다. 이 같은 데이터 보안을 고려한 설계, 로컬 환경에서의 운영 편리성이 장점인 셈이다.

여기에 SK텔레콤은 지난 11일 프롬 스크래치 방식으로 설계부터 방식까지 자체 개발한 경량 모델 '에이닷X 3.1 라이트'을 선보였다.

이 모델은 한국어 벤치마크 'KMMLU'에서 'A.X 4.0 라이트'의 96% 성능을 달성했고, 한국문화 평가 CLIcK에서는 'A.X 4.0 라이트'를 넘어섰다. SK텔레콤은 이번 공모전에 '에이닷 엑스 3.1 라이트' 모델로 참여할 예정이며, 프롬 스크래치 방식을 통해 성능을 고도화한다는 방침이다.

KT 기술혁신부문 연구원들이 서초구 KT 우면연구센터에서 '믿:음 2.0'을 테스트하고 있는 모습. (사진=KT)

KT는 자체 개발 AI 모델 '믿:음 2.0'을 내세웠다. 이 모델은 '한국적 AI'를 목표로 사전 학습 단계부터 고품질 한국어 데이터를 학습했고, 준비 과정에서 모든 저작권을 확보하며 신뢰성을 높였다.

KT에 따르면 '믿:음 2.0'은 한국어 벤치마크 'KMMLU', 한국어 언어모델 평가 지표 'HAERAE' 등에서 유사 규모 타 모델 대비 우수한 성능을 기록했다. 한국어의 구조와 언어학적 특성을 반영한 토크나이저를 자체 개발하고, 필터링으로 줄어든 데이터 규모는 데이터 합성 방법론을 적용해 성능을 개선했다는 설명이다.

한편, 과기정통부는 이달 말 1차 정예팀을 발표할 예정으로, 이후 선정된 팀을 성능과 전략, 활용성을 바탕으로 압축할 계획이다.