이코노믹데일리 - 정확한 뉴스와 깊이 있는 분석
금융
산업
생활경제
IT
ESG
건설
정책
피플
국제
이슈
K-Wave
전체기사
검색
패밀리 사이트
아주일보
베트남
회원서비스
로그인
회원가입
지면보기
네이버블로그
2026.01.02 금요일
맑음
서울 -9˚C
맑음
부산 -6˚C
맑음
대구 -4˚C
맑음
인천 -8˚C
눈
광주 -6˚C
흐림
대전 -6˚C
맑음
울산 -5˚C
맑음
강릉 -7˚C
눈
제주 2˚C
검색
검색 버튼
검색
'Qwen'
검색결과
기간검색
1주일
1개월
6개월
직접입력
시작 날짜
~
마지막 날짜
검색영역
제목
내용
제목+내용
키워드
기자명
전체
검색어
검색
검색
검색결과 총
5
건
LG AI연구원 'K-엑사원', 오픈AI·알리바바 목표 모델 추월
[이코노믹데일리] LG AI연구원은 30일 서울 강남 코엑스에서 열린 과학기술정보통신부 주관 '독자 AI 파운데이션 모델 1차 발표회'에서 'K-엑사원(EXAONE)'의 성능을 공개했다. LG AI연구원은 'K-엑사원'을 프런티어급 모델인 236B(매개변수 2360억개)로 규모를 키워 개발했다고 밝혔다. 특히 AI 신기술을 적용해 엑사원 4.0 대비 추론 효율성은 높이면서도 메모리 요구량과 연산량은 줄이는 등 성능과 경제성을 동시에 확보했다. 먼저 독자적인 전문가 혼합 모델 구조(MOE)로 성능과 효율성을 동시에 확보했으며 중요한 정보에 집중하는 하이브리드 어텐션 기술을 더해 메모리 요구량과 연산량을 70% 줄였다. 'K-엑사원'은 모델 구조 최적화를 통해 기존 '엑사원 4.0' 대비 추론 속도를 획기적으로 높였다. 특히 LG AI연구원은 고가의 인프라 대신 A100급 GPU 환경에서도 구동할 수 있도록 모델을 설계해 구축 및 운영 비용 부담을 크게 낮춰 스타트업이나 중소기업도 프런티어급 AI 모델을 손쉽게 도입할 수 있도록 했다. LG AI연구원은 '글로벌 최신 AI 모델 대비 100% 이상'이라는 도전적인 목표를 내걸고 'K-엑사원' 개발에 나섰다. 이번 발표에서 미국과 중국의 프런티어급 오픈 웨이트(가중치 공개) 모델 중 비슷한 규모인 알리바바의 '큐웬3(Qwen3) 235B'를 1차 성능 목표 모델로 삼았다고 밝혔다. 'K-엑사원'은 1차 평가 벤치마크 13종의 평균 점수에서 72.03점을 달성해 1차 목표 모델인 큐웬3 235B(69.37점) 대비 104%의 성능을 달성했다. 또한 오픈AI의 최신 오픈 웨이트 모델인 GPT-OSS 120B(69.79점)와의 성능 비교에서도 103% 성능을 보였다. 오픈AI의 GPT-OSS 120B 모델과 알리바바의 큐웬3 235B 모델은 현재 글로벌 AI 분석 전문 기관인 '아티피셜 어낼리시스'의 인텔리전스 지수 평가에서 오픈 웨이트 모델 중 글로벌 6위와 7위에 있다. LG AI연구원은 'K-엑사원'이 1차 평가에서 오픈 웨이트 모델 '글로벌 TOP 5'까지 노릴 수 있는 성능을 달성했다고 밝혔다. 지난 5년간 쌓아온 AI 파운데이션 모델 개발 기술력을 기반으로 엑사원을 5개월 만에 완성했으며 향후 조 단위의 파라미터 규모를 가진 최상위 모델들과 경쟁하겠다는 계획이다. LG AI연구원 관계자는 "K-엑사원은 글로벌 최신 AI 모델 100% 이상 성능이라는 도전적인 목표를 달성했다"며 "LG만의 차별적인 기술을 기반으로 K-엑사원 성능을 지속적으로 고도화해 국가 경쟁력 확보에 기여할 것"이라고 말했다. 구광모 ㈜LG 대표는 최근 2026년 신년사에서 "새로운 미래가 열리는 변곡점에서는 지금까지의 성공 방식을 넘어 새로운 혁신으로 도약해야만 한다"며 "혁신을 위해서는 생각과 행동이 변해야 하며 '선택과 집중'이 그 시작"이라고 말한 바 있다.
2025-12-30 16:01:00
카카오, 차세대 언어모델 '카나나-2' 오픈소스 공개
[이코노믹데일리] 카카오(대표 정신아)는 19일 허깅페이스를 통해 자체 개발한 차세대 언어모델 '카나나-2'를 오픈소스로 공개했다. 카카오는 지난해 자체 개발 AI 모델 '카나나' 라인업을 공개한 이후 경량 모델부터 고난도 문제 해결에 특화된 '카나나-1.5'까지 다양한 모델을 순차적으로 오픈소스로 선보여왔다. 이번에 공개한 카나나-2는 기존 모델을 고도화한 최신 언어모델로 사용자 명령의 맥락을 이해하고 능동적으로 동작하는 에이전트 AI(인공지능) 구현을 목표로 개발됐다. 카나나-2는 베이스, 인스트럭트, 추론 특화 모델 등 총 3종으로 구성됐다. 인스트럭트 모델은 사후 학습을 통해 지시 이행 능력을 강화했으며, 추론 특화 모델은 복합적인 사고 과정이 요구되는 작업 수행에 초점을 맞췄다. 개발자들이 자체 데이터를 활용해 모델을 자유롭게 파인튜닝할 수 있도록 학습 단계의 웨이트도 함께 공개됐다. 카카오에 따르면 이번 모델은 도구 호출과 사용자 지시 이행 능력이 이전 모델 대비 크게 개선됐다. 기존 '카나나-1.5-32.5b'와 비교해 다중 대화 기반 도구 호출 성능이 3배 이상 향상됐으며 단계별 요구 사항을 포함한 복합 지시를 처리하도록 설계됐다. 지원 언어는 한국어와 영어를 포함해 일본어, 중국어, 태국어, 베트남어까지 총 6개로 확대됐다. 기술 구조 측면에서는 효율성을 높이기 위해 최신 아키텍처가 적용됐다. 긴 입력을 효율적으로 처리하는 'MLA' 기법과 추론 시 필요한 파라미터만 선택적으로 활성화하는 'MoE' 구조를 도입했다. 이에 메모리 사용량을 줄이면서도 긴 문맥을 처리할 수 있으며 대규모 동시 요청 환경에서도 처리 성능을 높였다. 성능 평가에서는 인스트럭트 모델이 동일 구조의 'Qwen3-30B-A3B'와 유사한 수준을 기록했다. 해당 모델은 이달 한국정보과학회와 공동 개최한 'AI 에이전트 경진대회'에서 참가자들에게 선공개돼 실제 에이전트 개발 환경에서 활용됐다. 추론 특화 모델 역시 추론 모드를 적용한 'Qwen3-30B-A3B'와 유사한 성능을 보였다. 카카오는 향후 동일한 MoE 구조를 기반으로 모델 규모를 확장하고 에이전틱 AI 활용에 특화된 모델과 온 디바이스 환경에 최적화된 경량 모델 개발을 병행할 계획이다. 김병학 카카오 카나나 성과리더는 "혁신적인 기술과 기능을 갖춘 AI 서비스의 근간은 기반이 되는 언어모델의 성능과 효율"이라며 "높은 성능에 초점을 둔 모델을 넘어 실제 AI 서비스에 적용되어 빠르고 효과적으로 동작할 수 있는 실용성을 갖춘 AI 모델을 개발하고 꾸준히 오픈소스로 공유하며 국내외 AI 연구 생태계 활성화에 기여할 계획"이라고 말했다.
2025-12-19 10:46:18
엔비디아에 도전장…리벨리온, 저전력 고성능 AI반도체 '리벨쿼드'로 승부수
[이코노믹데일리] AI반도체 스타트업 리벨리온이 차세대 AI칩 ‘리벨쿼드(REBEL-Quad)’를 공개하며 글로벌 데이터센터 시장에 본격적으로 도전한다. 리벨리온은 미국 팔로알토에서 열린 반도체 학술 행사 ‘핫칩스 2025’에서 칩렛(Chiplet) 구조를 적용한 리벨쿼드를 최초로 선보였다. 이 제품은 엔비디아의 최신 GPU 블랙웰 수준의 성능을 저전력으로 구현하는 것을 목표로 개발됐다. 리벨쿼드는 삼성전자 4나노 공정으로 생산되며 최신 HBM3E 메모리를 탑재했다. 144GB에 달하는 메모리 용량과 4.8TB/s의 빠른 대역폭으로 단일 칩만으로도 수백억 파라미터 규모의 거대언어모델(LLM)을 처리할 수 있다. 기술적으로 가장 큰 특징은 국내 최초로 칩렛 구조와 HBM3E 메모리를 결합했다는 점이다. 특히 칩렛 간 통신에 개방형 표준인 ‘UCIe’의 어드밴스드 버전을 세계 최초로 실제 칩에 구현해 데이터 전송 속도와 전력 효율을 극대화했다. 리벨리온은 이를 기반으로 향후 ‘REBEL-IO’, ‘REBEL-CPU’ 등 제품 라인업을 확장해 나갈 계획이다. 또한 리벨쿼드는 ‘전문가 혼합(MoE)’ 방식의 최신 AI 모델을 안정적으로 지원하며 추론 속도를 높였다. 리벨리온은 핫칩스 현장에서 알리바바의 오픈소스 모델 ‘Qwen3 235B MoE’의 구동 데모를 선보여 기술력을 입증했다. 박성현 리벨리온 대표는 “AI 산업은 GPU라는 단일 AI 하드웨어만으로는 감당하기 어려울 정도로 빠르게 커졌다”며 “리벨쿼드는 B200급 플래그십 GPU에 버금가는 성능을 유지하면서도 에너지 부담을 획기적으로 줄일 수 있는 지속가능한 AI시대의 대안으로 리벨리온은 향후 초거대 AI 모델을 누구나 더 쉽고 효율적으로 활용할 수 있는 시대를 열어갈 것”이라고 밝혔다.
2025-08-27 16:50:49
SKT, '소버린 AI'를 향한 기술 과시...한 달 새 6개 모델 공개
[이코노믹데일리] SK텔레콤이 국내 ‘소버린 AI(Sovereign AI)’ 생태계 구축을 위한 기술적 리더십 확보에 총력전을 펼치고 있다. 이달에만 연달아 4개의 거대언어모델(LLM)을 공개한 데 이어 산업 현장의 시각 정보를 정교하게 이해하는 시각-언어모델(VLM)과 LLM의 학습 및 추론 속도를 획기적으로 개선하는 핵심 기반 기술까지 오픈소스로 풀며 기술력 과시에 나섰다. SKT는 자사 AI 모델 ‘에이닷 엑스(A.X)’를 기반으로 개발한 ‘A.X 4.0 VL 라이트’와 범용 문서 해석 기술 ‘A.X 인코더’ 2종을 글로벌 오픈소스 커뮤니티 허깅페이스에 공개했다고 29일 밝혔다. 이번 공개는 단순한 모델 추가를 넘어 국내 기업과 개발자들이 AI를 실제 산업에 적용하고 자체 모델을 개발하는 데 필요한 핵심 도구를 제공하겠다는 전략적 의지가 담겨있다. 이는 정부가 추진하는 ‘독자 AI 파운데이션 모델’ 사업을 겨냥한 행보로 SKT가 기술 생태계의 중심축이 되겠다는 선언으로 풀이된다. 이번에 공개된 기술 중 가장 주목받는 것은 시각-언어모델인 ‘A.X 4.0 VL 라이트’다. 이 모델은 텍스트를 넘어 이미지, 도표, 그래프, 심지어 복잡한 제조 도면까지 ‘보고 이해하는’ 능력을 갖췄다. SKT의 70억 매개변수 경량 모델인 ‘A.X 4.0 라이트’를 기반으로 개발돼 비교적 적은 컴퓨팅 자원으로도 높은 성능을 낼 수 있도록 설계됐다. 성능은 예상을 뛰어넘는다. SKT에 따르면 이 모델은 한국어 시각 벤치마크에서 중국의 320억 매개변수 대형 모델인 ‘큐원(Qwen) 2.5-VL’보다 더 우수한 점수를 기록했다. 훨씬 작은 모델 크기에도 불구하고 더 높은 성능을 달성한 것은 SKT의 학습 데이터와 튜닝 기술력이 글로벌 수준에 도달했음을 의미한다. 특히 한국의 복잡한 문서 구조와 차트 등을 이해하는 ‘KoBizDoc’ 벤치마크에서도 대형 모델과 대등한 성능을 보여 국내 기업 환경에서의 활용 가치를 증명했다. 비용 효율성 또한 강점이다. 동일한 한국어 데이터를 처리할 때 경쟁 모델 대비 텍스트 토큰 사용량을 41%나 줄여 기업들이 AI를 활용하는 데 가장 큰 장벽인 운영 비용을 크게 낮출 수 있다. 이와 함께 공개된 ‘A.X 인코더’는 LLM의 성능과 효율을 좌우하는 핵심 기반 기술이다. 인코더는 인간의 언어를 AI가 이해할 수 있는 벡터 값으로 변환하는 역할을 하는데 이 과정의 효율이 AI의 전체 성능을 결정한다. ‘A.X 인코더’의 가장 큰 특징은 한 번에 처리할 수 있는 정보의 양, 즉 ‘컨텍스트 창’을 획기적으로 늘렸다는 점이다. 기존 모델들이 통상 512 토큰(수십 개 문장)을 처리했다면 ‘A.X 인코더’는 1만 6384 토큰까지 처리할 수 있다. 이는 단편적인 문단이 아닌 책 한 권에 가까운 긴 문서를 한 번에 읽고 맥락을 파악할 수 있다는 의미다. 이러한 능력은 LLM의 학습 속도를 최대 2배, 사용자의 질문에 답하는 추론 속도를 최대 3배까지 끌어올린다. 대규모 문서를 학습시켜야 하는 기업이나 연구기관에겐 개발 기간과 비용을 극적으로 단축할 수 있는 강력한 무기가 생긴 셈이다. 이 인코더는 1억4900만개의 매개변수만으로 자연어 이해 성능지표에서 글로벌 최고 수준(SOTA)급 점수를 달성해 효율성과 성능을 모두 잡았다. 김태윤 SK텔레콤 파운데이션 모델 담당은 “독자적인 기술력 확보가 소버린 AI의 핵심인 만큼 자체 역량을 높이고 컨소시엄 기업들과의 협업에도 박차를 가해 글로벌 최고 수준의 AI 경쟁력을 확보할 것”이라고 강조했다. SKT의 전례 없는 한 달간의 기술 공개 릴레이는 국내 AI 시장의 패권을 잡기 위한 치열한 경쟁의 서막을 알리고 있다.
2025-07-29 16:17:45
SKT, 'GPT-4o 능가' 한국어 LLM '에이닷 엑스 4.0' 상업용으로 공개
[이코노믹데일리] SK텔레콤이 글로벌 빅테크의 AI 모델보다 한국어 능력이 뛰어나다고 자신하는 자체 거대언어모델(LLM) ‘에이닷 엑스 4.0’을 상업용 오픈소스로 전격 공개했다. 국내 기업들에 데이터 유출 걱정 없는 고성능 AI 선택지를 제공하며 시장의 주도권을 확보하겠다는 강력한 ‘AI 주권’ 전략이다. SK텔레콤은 3일 개발자 커뮤니티 허깅페이스를 통해 720억개 매개변수의 표준 모델과 70억개 경량 모델 2종을 공개했다. 이번에 공개된 모델은 알리바바의 오픈소스 ‘큐원 2.5’를 기반으로 방대한 고품질 한국어 데이터를 추가 학습시킨 것이다. 기업이 외부망 연동 없이 내부 서버에 직접 설치해 사용할 수 있어 데이터 보안에 민감한 금융, 공공 기관에 매력적인 대안이 될 수 있다. 성능은 글로벌 최고 모델을 넘어선다. SK텔레콤은 자체 설계한 토크나이저(Tokenizer·문장의 구조를 분석해 토큰으로 분할하는 작업 도구)를 통해 GPT-4o 대비 토큰 처리 효율성을 33% 높여 비용 경쟁력을 확보했다. 대표적인 한국어 능력 평가 지표인 ‘KMMLU’와 한국 문화 이해도를 측정하는 ‘CLIcK’ 벤치마크에서도 GPT-4o(80.2점)를 능가하는 83.5점을 기록하며 한국어와 한국 문화에 대한 깊은 이해도를 입증했다. 이번 공개는 단순한 기술 과시를 넘어 국내 AI 생태계의 판도를 바꾸려는 전략적 행보다. 그동안 막대한 비용과 데이터 보안 문제로 글로벌 빅테크의 LLM 도입을 망설였던 기업들에 파생 모델 개발과 연구 등 다양한 활용의 길을 열어준 셈이다. SK텔레콤은 이미 자사 ‘에이닷’ 서비스에 해당 모델을 적용했으며 향후 SK그룹 전체로 확산할 계획이다. SK텔레콤은 여기서 멈추지 않고 이달 중 수학과 코드 개발에 특화된 추론형 모델을 추가 공개하며 기술 격차를 벌려 나갈 예정이다. 또한 ‘소버린 AI’ 관점에서 밑바닥부터 자체 개발하는 ‘프롬 스크래치’ 방식의 모델 개발도 병행하며 장기적인 기술 독립까지 추진한다. 김지원 SK텔레콤 AI 모델 랩장은 “SK텔레콤의 다양한 서비스를 고도화하고, 기업 시장에서 한국어 특화 LLM으로 국내 비즈니스 환경에 최적화된 모델이 될 수 있도록 지속적인 기술 개발을 추진할 계획”이라고 말했다.
2025-07-03 11:30:16
처음
이전
1
다음
끝
많이 본 뉴스
1
뿌리면 1초 만에 '피 뚝'...차세대 지혈 파우더 개발
2
스마일게이트 '에픽세븐' 개발진 3인방, 한복 입고 새해 인사... "2026년 화두는 소통"
3
연 50억 건 '국가대표 AI 서바이벌' 개막... 오늘 첫 탈락자 가린다
4
테슬라, 모델3·Y 최대 940만원 '기습 할인' 나서
5
크래프톤, "배그 의존도 여전한데"…AI·숏폼 투자로 돌파구 찾나
6
韓 기업, CES 2026 혁신상 59% 싹쓸이… 역대 최다 기록 경신
7
[2026 ED 송년기획] 모듈러 건축 다시 뜨는 이유는 분명한데…공공은 속도 민간은 정체
8
네이버 추론형 AI 글로벌 무대 데뷔... 국내 2위 기록하며 '청신호'
영상
Youtube 바로가기
오피니언
[기원상 칼럼] "권력의 곁을 떠나지 못한 종교, 통일교는 어디로 가는가"