금융
산업
생활경제
IT
건설
피플
국제
이슈
문화
딥인사이트
검색
패밀리 사이트
아주일보
베트남
회원서비스
로그인
회원가입
지면보기
네이버블로그
2026.02.16 월요일
맑음
서울 5˚C
비
부산 11˚C
흐림
대구 8˚C
맑음
인천 3˚C
흐림
광주 7˚C
흐림
대전 6˚C
흐림
울산 6˚C
흐림
강릉 2˚C
맑음
제주 6˚C
검색
검색 버튼
검색
'전력 효율'
검색결과
기간검색
1주일
1개월
6개월
직접입력
시작 날짜
~
마지막 날짜
검색영역
제목
내용
제목+내용
키워드
기자명
전체
검색어
검색
검색
검색결과 총
5
건
노타·퓨리오사AI, 모바일 넘어 데이터센터로…'효율성' 무기로 엔비디아 뚫는다
[이코노믹데일리] 국내 AI 반도체 생태계가 하드웨어와 소프트웨어의 '원팀' 결성으로 글로벌 시장 공략의 승부수를 띄웠다. AI 최적화 기술 기업 노타(대표 채명수)와 AI 반도체 팹리스 퓨리오사AI(대표 백준호)가 손을 잡고 데이터센터 시장 진출을 본격화한다. 이는 엔비디아의 독주 체제 속에서 '가성비'와 '전력 효율'을 무기로 틈새시장을 넘어 주류 시장으로 진입하려는 K-AI 연합군의 전략적 행보로 풀이된다. AI 경량화 및 최적화 기술 기업 노타는 3일 퓨리오사AI의 차세대 고성능 NPU(신경망처리장치) 'RNGD(레니게이드)'에 자사의 AI 모델 최적화 플랫폼 '넷츠프레소(NetsPresso)' 기술을 공급하는 계약을 체결했다고 밝혔다. 이번 계약은 그동안 모바일과 엣지(Edge) 디바이스 위주였던 노타의 기술력이 고성능 컴퓨팅(HPC) 영역인 데이터센터와 서버 시장으로 확장됐다는 데 큰 의미가 있다. 퓨리오사AI의 'RNGD'는 전력 대비 성능(전성비)을 극대화한 추론용 AI 반도체다. 하지만 아무리 뛰어난 칩이라도 그 위에서 구동되는 AI 모델이 무겁고 비효율적이라면 제 성능을 낼 수 없다. 노타의 '넷츠프레소'는 바로 이 지점을 파고들었다. 넷츠프레소는 AI 모델의 크기를 최대 90% 이상 줄이면서도 정확도를 유지하는 경량화 기술이다. 이번 협력을 통해 퓨리오사AI는 RNGD 칩 위에서 거대언어모델(LLM)과 같은 대규모 AI 모델을 더 빠르고 안정적으로 구동할 수 있게 됐다. 하드웨어의 물리적 성능을 소프트웨어 최적화로 극한까지 끌어올리는 전략이다. ◆ 2026년 화두는 '효율성'…추론 시장 정조준 업계는 2026년 AI 시장의 핵심 키워드로 '추론(Inference)'과 '비용 효율(TCO)'을 꼽는다. 생성형 AI 학습 경쟁이 정점을 지나 실제 서비스 적용 단계로 넘어오면서, 막대한 전력을 소모하는 엔비디아 GPU 대신 저전력 고효율 NPU를 찾는 수요가 급증하고 있기 때문이다. 이러한 시점에 성사된 양사의 협력은 시의적절하다는 평가다. 퓨리오사AI는 노타의 최적화 기술을 통해 고객사들에게 "우리 칩을 쓰면 비싼 GPU보다 운영 비용을 획기적으로 줄일 수 있다"는 확실한 세일즈 포인트를 갖게 됐다. 노타 역시 퓨리오사AI라는 확실한 레퍼런스를 통해 글로벌 데이터센터 시장 진출의 교두보를 마련했다. 단순 기술 공급을 넘어 공동 비즈니스 모델도 구축한다. 양사는 노타의 비전 AI 솔루션 '노타 비전 에이전트(NVA)'와 퓨리오사AI의 RNGD를 결합한 패키지 솔루션을 출시하기로 합의했다. 이는 최근 급부상하는 '피지컬(Physical) AI' 시장을 겨냥한 것이다. 로봇, 스마트 팩토리, 자율주행 등 물리적 환경에서 작동하는 AI는 실시간 데이터 처리가 필수적이다. 최적화된 SW와 전용 HW가 결합된 '턴키(Turn-key)' 솔루션은 개별 도입의 번거로움을 줄이고 시스템 안정성을 높여 시장 경쟁력을 확보할 것으로 보인다. 채명수 노타 대표는 "이번 계약은 넷츠프레소 기술이 엣지를 넘어 고성능 데이터센터 영역에서도 통한다는 것을 증명한 결과"라며 "대한민국의 AI 기술력을 세계 시장에서 입증하겠다"고 강조했다. 백준호 퓨리오사AI 대표 역시 "혁신적인 NPU 기술과 고도화된 최적화 역량의 결합은 글로벌 시장에서 K-AI의 저력을 보여주는 계기가 될 것"이라며 자신감을 내비쳤다. 전문가들은 이번 협력이 국내 AI 반도체 생태계의 성공 방정식이 될 수 있다고 분석한다. 글로벌 빅테크들이 자체 칩과 소프트웨어 생태계(CUDA 등)를 폐쇄적으로 구축하는 상황에서, 국내 팹리스와 SW 기업 간의 유기적인 연합만이 생존을 넘어 경쟁 우위를 점할 수 있는 유일한 길이라는 지적이다.
2026-02-03 16:09:58
KT클라우드, "물에 담그고 칩에 쏘고"…액침·D2C 냉각 기술로 AI 발열 잡는다
[이코노믹데일리] KT클라우드(대표 최지웅)가 인공지능(AI) 데이터센터의 핵심 기술을 실증하고 미래형 인프라 모델을 제시하는 ‘AI 이노베이션 센터(AI Innovation Center)’를 서울 양천구 목동 데이터센터 내에 개소했다. 이곳은 단순한 전시장을 넘어 실제 AI 데이터센터와 동일한 환경에서 차세대 냉각 기술과 전력 인프라 및 운영 솔루션을 검증하는 ‘테스트베드’ 역할을 수행한다. KT클라우드는 지난 11일 AI 이노베이션 센터 개소식을 열고 엔비디아의 최신 GPU ‘B200’을 탑재한 AI 서버와 이를 뒷받침하는 첨단 기술들을 공개했다. 가장 눈길을 끈 것은 ‘냉각 기술’이다. 고성능 AI 서버가 뿜어내는 막대한 열을 잡기 위해 KT클라우드는 두 가지 핵심 기술을 선보였다. 첫 번째는 ‘다이렉트투칩(D2C)’ 수냉식 시스템이다. 냉각수가 흐르는 배관을 칩 바로 위까지 연결해 열을 직접 식히는 방식으로 공기로 열을 식히는 기존 공랭식보다 효율이 월등히 높다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화했다. 두 번째는 ‘액침 냉각(Immersion Cooling)’이다. 서버 전체를 비전도성 특수 냉각유에 담가 열을 식히는 방식으로 전력 소비를 공랭식 대비 최대 60%까지 줄일 수 있는 혁신적인 기술로 꼽힌다. 허영만 KT클라우드 DC본부장은 “액침 냉각은 전력 효율 지수(PUE)를 획기적으로 개선할 수 있는 기술”이라며 “향후 시장 수요에 맞춰 기존 센터에도 단계적으로 도입할 계획”이라고 밝혔다. 네트워크와 전력 인프라의 혁신도 돋보였다. 글로벌 네트워크 기업 아리스타와 협력해 구축한 ‘RoCEv2’ 기반 AI 전용 네트워크는 GPU 서버 간 초고속 데이터 전송을 지연 없이 지원해 대규모 AI 학습 환경에 최적화됐다. 또한 자체 개발한 ‘AI 서버 표준 랙’은 20kW 이상의 고밀도 전력을 안정적으로 공급하며 에너지 손실을 최소화하는 DC 48V 직류 전원 구조를 채택했다. 운영 효율성을 높이기 위한 자동화 기술도 대거 적용됐다. ‘패스파인더’ 솔루션은 전력망 전체를 디지털 트윈으로 구현해 최적의 전력 경로를 자동으로 찾아주고 ‘DIMS 인사이트’는 시설 데이터를 AI로 분석해 장애 징후를 사전에 탐지한다. 현장에서는 자율주행 로봇이 서버룸을 순찰하며 열화상 카메라로 과열 여부를 점검하는 모습도 시연됐다. KT클라우드는 이러한 기술을 통해 향후 데이터센터 운영 인력을 현재의 3분의 1 수준으로 줄이고 24시간 무중단 운영 체계를 완성한다는 목표다. 최지웅 KT클라우드 대표는 “AI 이노베이션 센터는 미래형 AI 데이터센터 기술을 실증하고 고객 가치 중심의 인프라를 구현하는 핵심 플랫폼”이라며 “국내 기업들이 AI 인프라를 구축할 때 참고할 수 있는 표준 모델을 제시하며 생태계 성장을 주도하겠다”고 강조했다.
2025-12-11 15:57:47
AWS '트레이니엄3' 공개에도 시장 반응 '싸늘'… "엔비디아 대체하기엔 역부족"
[이코노믹데일리] 세계 최대 클라우드 서비스 기업(CSP)인 아마존웹서비스(AWS)가 엔비디아의 독주를 막기 위해 자체 개발한 차세대 인공지능(AI) 칩 ‘트레이니엄3(Trainium3)’를 공개했으나 시장의 반응은 냉담하다. 전작 대비 효율이 좋아졌다는 주장 외에 객관적인 성능 지표를 공개하지 않아 경쟁사인 구글이나 엔비디아의 최신 칩과 비교해 기술적 우위를 증명하지 못했다는 평가가 지배적이다. AWS는 지난 2일(현지시각) 미국 라스베이거스에서 개막한 연례 기술 콘퍼런스 ‘리인벤트(re:Invent) 2025’에서 자사의 최신 AI 학습용 칩 ‘트레이니엄3’를 전격 공개했다. 맷 가먼 AWS 최고경영자(CEO)는 기조연설을 통해 “트레이니엄3는 전작인 트레이니엄2 대비 컴퓨팅 성능을 4배 이상 끌어올렸고 에너지 소비량은 40%가량 낮췄다”며 “운영 비용을 최대 50% 절감할 수 있는 효율적인 칩”이라고 강조했다. 이는 엔비디아 그래픽처리장치(GPU)에 대한 높은 의존도를 낮추고 비용 효율성을 앞세워 자체 하드웨어 생태계를 확장하겠다는 전략으로 풀이된다. 하지만 업계 전문가들은 AWS의 발표가 ‘알맹이 없는 선언’에 불과하다고 지적한다. AI 칩의 성능을 가늠하는 핵심 지표인 ‘플롭스(FLOPS, 초당 부동소수점 연산 횟수)’나 대규모언어모델(LLM) 구동 시의 벤치마크 점수를 전혀 공개하지 않았기 때문이다. 최근 구글이 자체 칩인 텐서처리장치(TPU) 최신 버전을 공개하며 자사의 AI 모델 ‘제미나이’를 학습시킬 때의 성능, 전력 효율, 속도 등을 구체적인 수치로 제시한 것과는 대조적인 행보다. 특히 엔비디아의 주력 제품군인 H100, H200, GB200 등과의 직접적인 비교 수치가 빠져 있다는 점이 의구심을 키우고 있다. AWS가 내세운 ‘전작 대비 4배 성능 향상’은 자사 제품 간의 비교일 뿐 현재 AI 칩 시장의 표준으로 자리 잡은 엔비디아 GPU와 견줘 어느 정도의 경쟁력을 갖췄는지 판단하기 어렵다. 전작인 트레이니엄2 역시 가성비 모델로 포지셔닝됐을 뿐 절대적인 성능 면에서는 GPU에 크게 미치지 못했다는 점을 고려하면 이번 신제품 역시 고성능 AI 학습 시장의 판도를 바꾸기에는 역부족일 것이라는 분석이 나온다. 대규모 AI 인프라 구축의 핵심인 ‘클러스터링’ 기술에 대해서도 우려가 제기된다. AWS는 트레이니엄3를 통해 최대 10만 개 규모의 칩 클러스터를 구성할 수 있다고 발표했다. 그러나 수만 개의 칩을 하나처럼 연결해 연산할 때 발생하는 데이터 병목 현상과 동기화 문제를 어떻게 해결했는지에 대한 기술적 설명은 부재했다. 10만 개의 칩을 물리적으로 연결하더라도 통신 속도와 효율이 뒷받침되지 않으면 실제 학습 성능은 기대에 미치지 못할 수 있다. 데이터센터 운영 비용의 핵심인 발열 관리(Thermal Throttling) 데이터가 빠진 점도 약점으로 꼽힌다. AWS는 전력 효율성을 강조했으나 실제 고부하 작업 시 칩의 발열을 제어하는 능력이나 이에 따른 실전 운영 데이터는 제시하지 않았다. 이는 엔비디아나 구글이 칩 설계 단계부터 발열 제어와 전성비(전력 대비 성능) 최적화에 사활을 걸고 구체적인 데이터를 공개하는 것과 비교해 신뢰도를 떨어뜨리는 요인이다. 소프트웨어 최적화 측면에서도 경쟁력이 모호하다는 지적이다. 구글의 경우 자사 TPU를 AI 모델 ‘제미나이’에 최적화해 학습 성능을 극대화한 반면 AWS의 트레이니엄 시리즈는 범용성을 지향하다 보니 특정 고성능 모델에서의 최적화 수준이 상대적으로 낮다. GPU 대신 트레이니엄을 사용할 경우 대규모 학습 모델에서 AI 서비스 품질 저하가 발생할 수 있다는 우려가 나오는 이유다. 클라우드 업계의 한 관계자는 “이번에 공개된 트레이니엄3의 연산 능력은 엔비디아의 현역 최신 모델인 블랙웰(Blackwell) 시리즈는커녕 이전 세대인 H100보다도 낮은 수준으로 추정된다”며 “클라우드 환경에 특화된 설계로 비용 절감 효과는 있겠지만 고도의 연산 능력이 필요한 첨단 AI 학습 영역에서 엔비디아 GPU를 대체하기는 어려울 것”이라고 평가했다.
2025-12-04 08:35:31
3나노 이하 초미세 공정의 열쇠 'GAA 트랜지스터'
[이코노믹데일리] ※전자사전은 복잡하고 어렵게만 느껴지는 '전자'분야의 최신 기술과 산업 이슈를 쉽게 풀어드리는 코너입니다. 뉴스에선 자주 등장하지만 정작 이해하기 어려웠던 이야기들을 매주 하나의 핵심 주제로 선정해 딱딱한 전문 용어 대신 알기 쉬운 언어로 정리합니다. <편집자주> 3나노 이하 초미세 공정 경쟁이 본격화되면서 파운드리 업계에서 가장 주목받는 키워드로는 ‘GAA(Gate-All-Around)’ 트랜지스터가 꼽힌다. 23일 업계에 따르면 삼성전자가 3나노에서 먼저 GAA를 적용하고 2나노 기술 성과까지 공개하면서 TSMC 등 경쟁사들과의 차세대 공정 경쟁이 치열해지고 있는 상황이다. 반도체 칩 안에는 전류를 켜고 끄는 트랜지스터가 수 십억 개 들어 있는 것으로 알려졌다. 이 트랜지스터가 작아질수록 칩의 성능은 높아지고 전력 효율도 개선되는 상황이다. 다만 현재의 주류 기술인 핀펫(FinFET)이 더 이상 작아지기 어려운 지점에 도달했다는 점이다. 핀펫은 채널을 세 면(위·좌·우)에서 감싸 누설 전류를 줄였지만 공정이 3나노 이하로 내려가자 감싸지 못하는 면이 생기며 전류가 새어나가는 문제점이 있다. AI 칩과 같이 고성능·저전력 설계가 요구되는 상황에서 누설 전류는 성능 저하와 발열로 직결된다. 이에 GAA가 각광을 받고 있다. GAA는 이름 그대로 게이트가 채널을 네 면 모두에서 감싸는 구조다. 이를 통해 채널을 완전히 밀봉하듯 감싸 전류를 정밀하게 제어할 수 있어 누설 전류가 줄어들고 트랜지스터를 더 작게 만들 수 있어 초미세 공정의 필수 기술로 평가된다. 삼성전자의 MBCFET(Multi-Bridge Channel FET)은 GAA 구조를 기반으로 채널을 여러 겹 쌓아 전류 흐름을 극대화한 형태다. 삼성전자 분기 보고서에 따르면 “2나노 공정이 3나노 2세대 대비 성능 5%, 전력 효율 8% 향상” 등의 수치를 제시하며 기술 진척도를 강조했다. 반면 TSMC는 3나노까지 핀펫을 유지해 안정성을 극대화하는 전략을 택했다. 이미 확보한 고객사 신뢰를 유지하기 좋은 선택이지만 2나노부터는 결국 GAA로 넘어가야 한다는 의견도 있다. 삼성이 갤럭시 S26에 탑재할 ‘엑시노스 2600’ 또한 곧 삼성 파운드리의 2나노 수율과 경쟁력의 시험대로 평가될 예정이다. 또한 AI 칩·고성능 모바일 칩 수요가 폭증하는 만큼 2나노 GAA 수율 확보 시점이 앞으로의 파운드리에서 중요해질 전망이다.
2025-11-23 09:00:00
'멈출 수 없는 공간' 네이버 데이터센터 각 세종…설계 철학부터 달라진 이유
[이코노믹데일리] "무엇이든 멈출 수 있지만, 데이터센터만은 멈출 수 없다." 네이버가 판교 화재 이후 내린 결론이다. 지난 2013년 네이버 첫 번째 데이터센터 '각 춘천'이 문을 열 때만 해도 데이터센터는 단순한 '서버 창고'였다. 12년이 흐른 지금 '각 세종'은 전력망·냉각기·보안 통제까지 스스로 사고하는 '지능형 설비'로 진화했다. 기술보다 먼저 바뀐 건 설계의 철학이었다. 지난 27일 세종시 부강면 '네이버 데이터센터 각 세종'을 처음 마주한 인상은 '고요'였다. 하지만 그 고요는 정적이 아니라, 거대한 숨이었다. 수천 대의 서버가 쉼 없이 돌아가며 내뿜는 미세한 진동이 바닥을 울렸고, 투명한 배관을 타고 흐르는 냉각수는 낮과 밤의 경계를 모른 채 순환하고 있었다. 기자들이 발소리를 죽이고 둘러보는 사이, 통제실의 수십 개 모니터가 깜빡이며 이곳이 살아 있는 'AI의 심장'임을 증명했다. 이곳은 네이버가 춘천 이후 10년 만에 세운 두 번째 자가형 하이퍼스케일 데이터센터다. 총 270메가와트(MW) 전력을 공급받아 6.75배 커진 규모로 지어졌다. 내진 설계 기준은 규모 7.0, 진도 9 수준. 사실상 원전급 기준이다. 네이버는 판교 데이터센터 화재 이후 무정전 전원장치(UPS)와 배터리실을 완전히 이원화하고 소화약제와 스프링클러를 병행하는 복합 방재 시스템을 적용했다. 노상민 센터장은 "재해는 막을 수 없어도 피해는 통제할 수 있어야 한다"며 "화재·침수·지진 등 모든 리스크를 시뮬레이션 단계에서 반영했다"고 말했다. '각 세종'의 강점은 에너지 효율이다. 서버의 열을 식히는 냉각 방식은 기존 공랭식에서 '간접 외기 냉방'과 '액체 냉각(DLC)'으로 진화했다. 외부 바람을 90%까지 활용하면서도 습도·미세먼지 조건에 따라 자동 전환되는 구조다. 덕분에 전력 효율지표(PUE)는 글로벌 빅테크 수준인 1.1대를 유지한다. 미국 친환경건축위원회(USGBC)가 부여하는 최고 등급의 친환경 인증인 LEED v4 플래티넘 인증도 획득했다. 네이버는 현재 '각 세종'의 1차 데이터센터를 넘어 AI 연산용 초고성능 그래픽처리장치(GPU) 서버 확산에 맞춰 향후 2차(2027년)·3차(2029년) 데이터센터 확장 단계부터 액침 냉각 기술을 본격 도입할 예정이다. 고전력 GPU 서버가 늘어나는 AI 시대를 대비한 선제적 조치다. 이러한 물리적 혁신 위에 네이버는 데이터센터 개념 자체를 재정의하고 있다. 이상준 네이버클라우드 최고정보책임자(CIO)는 "데이터센터는 더 이상 저장 공간이 아니라 AI 인프라의 핵심 지능"이라며 "우리는 이제 데이터센터를 '인텔리전스 센터(Intelligence Center)'로 부른다"고 말했다. 그는 "AI 학습·추론·서빙 등 모든 프로세스를 내부 클라우드에서 완결할 수 있는 '풀스택' 역량이 국내에선 유일하다"고 강조했다. 국내 데이터센터 시장은 지금 '전력 대란'과 '입지 규제'라는 이중 한계에 부딪혀 있다. 수도권 전력공급 제한과 분산에너지법 적용으로, 기업들이 지방으로 내려오면서 전력 인허가 확보가 경쟁이 됐다. 네이버가 세종을 택한 것도 이런 이유에서다. 노상민 센터장은 "서울 근교는 이미 포화 상태"라며 "전력 공급과 전자파 간섭, 재해 대응 등을 종합적으로 고려해 세종이 최적이었다"고 설명했다. '각 세종'은 단순한 시설이 아니라 한국형 데이터 인프라가 나아갈 방향을 보여준다. AI가 산업 전반 '기반 기술'이 되는 시대로 접어들며 전력·안전·지속가능성은 곧 국가 경쟁력이다. 2022년 판교 데이터센터 화재 이후 업계는 '안전 설계'와 '전력 효율'을 최우선 과제로 삼고 있다. 그 흐름 속에서 '각 세종'은 완전히 새로 그려진 설계도의 첫 결과물이다.
2025-10-28 09:00:00
처음
이전
1
다음
끝
많이 본 뉴스
1
"30만원짜리를 2만9000원에"…정신아의 '1000만 AI 유저' 확보 전략
2
잠실 르엘 입주 초기 하자 논란…롯데건설, 브랜드 전략에 부담 되나
3
SK텔레콤, 앤트로픽 '545조 대박'에 주가 비상(飛上)… 최태원의 'AI 피라미드' 통했다
4
'아틀라스' 주도 보스턴다이내믹스 CEO 사임…현대차그룹 전환 국면
5
'스노보드 2연속 메달' 뒤엔 12년 뚝심 후원한 '스키광' 신동빈 회장이 있었다
6
갤럭시S26, 4색 컬러로 승부수…2나노 '엑시노스 2600' 성능 입증할까
7
한화오션, 中 선박에 발목 잡힌 K-해상풍력…7687억원 베팅으로 '병목' 뚫는다
8
삼성전자, '최고 성능' HBM4 세계 최초 양산 출하…'반도체 왕좌' 탈환 신호탄
영상
Youtube 바로가기
오피니언
[視線] 축소 사회의 유일한 출구, '행정 통합'이라는 생존 카드