국가대표 AI 선발전, 예상을 뒤엎은 충격적 탈락의 내막
글로벌 AI 3강 도약을 위한 한국형 파운데이션 모델 개발 프로젝트, 1차 평가에서 예상 밖의 결과가 발표되었습니다.
개요
우리나라 고유의 인공지능(AI) 모델을 선발하는 '국가대표 AI' 1차 평가에서 네이버클라우드와 NC AI가 탈락했습니다. 당초 정부는 5개 팀 중 1개 팀만 탈락시킬 계획이었으나, 독자성 및 성능 평가에서 기준을 충족하지 못한 두 기업이 고배를 마셨습니다. 이번 프로젝트는 한국이 해외 기술에 종속되지 않는 독자적인 AI 파운데이션 모델을 개발하여 AI 주권을 확보하고, 글로벌 AI 경쟁에서 'AI 3강'으로 도약하기 위한 중대한 국가적 사업입니다. LG AI 연구원, SK텔레콤, 업스테이지가 다음 단계로 진출하며, 정부는 추가 공모를 통해 한 팀을 더 선정할 계획입니다.
국가대표 AI 프로젝트: 한국 AI 주권 확보의 핵심 목표
'국가대표 AI' 프로젝트는 미·중에 이어 AI 3강으로 자리매김하고자 하는 대한민국의 염원을 담고 있습니다. 해외 기술 의존도를 낮추고 독자적인 한국형 파운데이션 모델을 개발하는 것이 그 근본적인 취지입니다. 이는 AI 시대에 국가의 기술 주권을 확보하고 미래 산업 경쟁력을 강화하는 데 필수적인 전략으로 평가됩니다. 이번 프로젝트를 통해 선정된 기업은 집중적인 지원을 받으며, 글로벌 시장에서 한국 AI 기술의 위상을 높이는 데 기여할 것으로 기대됩니다.
1차 평가 결과: 예상을 뒤엎은 충격적인 탈락
과학기술정보통신부는 1차 평가 결과, 당초 1개 팀 탈락 예상과 달리 2개 팀이 탈락했다고 발표했습니다. LG AI 연구원, SK텔레콤, 업스테이지가 2단계 진출에 성공했으며, 특히 LG AI 연구원은 벤치마크, 전문가, 사용자 평가에서 모두 1위를 차지하며 압도적인 성과를 보였습니다. 국내 AI 업계의 선두 주자로 꼽히던 네이버클라우드의 탈락은 업계 전반에 중요한 파장을 불러일으켰습니다.
네이버클라우드 탈락의 핵심 이유: 독자성 기준 미달
네이버클라우드는 AI 모델 성능 평가에서는 상위권에 속했지만, 독자성 기준을 충족하지 못해 탈락했습니다. 류제명 과기정통부 2차관은 네이버클라우드의 AI 모델이 독자 AI 파운데이션 모델 개발이라는 프로젝트 조건에 부합하지 못했다고 밝혔습니다. 이는 가중치를 초기화하지 않고 기존 가중치를 재사용한 부분이 전문가 평가에서 독자성 한계로 지적된 결과입니다. '프롬 스크래치(From Scratch)' 기준에 미달했다는 점이 핵심적인 탈락 사유로 작용했습니다. 다음은 1차 평가에서 나타난 주요 탈락 사유를 요약한 표입니다.
| 기업명 | 평가 결과 | 주요 탈락 사유 |
|---|---|---|
| 네이버클라우드 | 1차 탈락 | 독자성 기준 미충족 (가중치 재사용 논란) |
| NC AI | 1차 탈락 | AI 모델 성능 평가 점수 미달 |
NC AI의 탈락 배경과 정부의 추가 공모 계획
NC AI는 네이버클라우드와 달리 AI 모델 성능 평가 점수가 낮아 1차 평가에서 탈락했습니다. 정부는 이번 평가 결과를 확정하기 전, 탈락한 팀에 10일간 이의 제기 신청 기간을 부여했습니다. 또한, 예상치 못한 2개 팀 탈락으로 인해, 정부는 최대한 이른 시기에 공모를 통해 1개 팀을 추가로 선정하여 2차 평가에 참여시킬 계획입니다. 이번에 탈락한 기업들을 포함한 모든 기업이 재공모에 참여할 수 있으나, 새로운 팀은 개발 기간이 짧아 경쟁 여건이 불리할 수 있다는 지적도 제기되고 있습니다.
‘프롬 스크래치’ 기준: 순수 한국형 AI 모델의 조건
과기정통부는 독자 AI 파운데이션 모델 개발을 위한 명확한 '프롬 스크래치' 기준을 제시했습니다. 이는 완전한 우리 기술로 AI 모델을 개발하거나, 라이선스 제약 없는 오픈소스를 활용하더라도 가중치를 초기화하여 스스로 학습시켜야 한다는 원칙입니다. 외부의 통제나 간섭에서 자유로운 독자적인 기술 확보가 이번 프로젝트의 가장 중요한 목표입니다. 이 기준은 중국산 모듈 사용 논란과 같은 이슈를 방지하고 프로젝트의 근본 취지를 지키기 위한 중요한 가이드라인입니다.
평가 방식과 합격팀: LG AI연구원의 압도적 성과
1차 평가는 벤치마크 평가(40점), 전문가 평가(35점), 사용자 평가(25점)를 종합하여 이루어졌습니다. LG AI 연구원은 이 세 가지 평가 항목에서 모두 1위를 차지하며 그 기술력을 입증했습니다. 이는 LG AI 연구원이 다각적인 측면에서 뛰어난 AI 모델을 개발했음을 보여주는 결과입니다. 정부는 이번 평가를 통해 한국형 파운데이션 모델 개발의 가능성을 확인하고, 합격한 팀들이 더욱 발전된 모델을 선보일 것을 기대하고 있습니다. 다음 표는 1차 평가의 주요 평가 항목 및 비중을 나타냅니다.
| 평가 항목 | 비중 | 주요 내용 |
|---|---|---|
| 벤치마크 평가 | 40% | AI 모델의 기술적 성능 측정 |
| 전문가 평가 | 35% | 독자성, 기술력, 발전 가능성 등 심층 분석 |
| 사용자 평가 | 25% | 실제 사용 환경에서의 유용성 및 편의성 검토 |