GTC 2025-AI 기술의 흐름_TOP.png

AI 기술의 흐름, GTC 2025에서 확인하다

지난 3월 열린 엔비디아의 개발자 콘퍼런스 ‘GTC 2025’는 AI 컴퓨팅 분야를 사실상 독점하고 있는 엔비디아의 최신 기술과 비전을 소개하는 자리였습니다. ‘AI 업계의 슈퍼볼’이라는 별칭으로도 불리는 이 행사에는, 엔비디아가 전망하고 준비하고 있는 AI의 발전 방향이 공유되며 전 세계 개발자들의 이목을 집중시켰습니다.

올해 GTC가 전달한 핵심 메시지는 “압도적 컴퓨팅 파워로 후발주자에 추격이 어려운 장벽을 쌓겠다”는 것이었습니다. 엔비디아는 AI 패권 경쟁에서 기술적 우위를 더욱 강화하겠다는 강력한 의지를 드러냈죠.

이러한 메시지를 뒷받침하듯, 엔비디아는 차세대 AI용 GPU 아키텍처인 ‘블랙웰(Blackwell)’을 공개했습니다. 블랙웰은 H100으로 잘 알려진 이전 세대 아키텍처 ‘호퍼(Hopper)’ 대비 40배 빠른 성능을 자랑하며, 고성능 AI 모델의 학습과 추론을 동시에 지원하는 것이 특징입니다.

추격 불가능한 영역으로, 경쟁을 허락하지 않는 엔비디아

젠슨 황 엔비디아 CEO는 '압도적 컴퓨팅 파워'를 실현할 '블랙웰' 기반 플랫폼의 본격적인 생산이 시작되었다고 알렸습니다. 이어 올해 하반기에는 성능을 약 50% 향상한 차세대 버전, ‘블랙웰 울트라’를 출시할 계획이라고 밝혔습니다. ‘블랙웰 울트라’는 288GB의 HBM3e 메모리를 탑재해 더욱 강력한 AI 연산 성능을 갖춘 것이 특징입니다.

GTC 2025-AI 기술의 흐름_1

블랙웰 아키텍처는 이전 세대보다 추론 성능은 높아지고 전력 소모는 줄어들었다고 설명했습니다. 즉, 동일 비용으로 더 많은 작업이 가능해졌다는 의미에요. 또한 블랙웰 울트라는 추론 과정에서 더 많은 연산을 수행해 정확도를 높이는 기술이 도입되었습니다. 이를 통해 AI 추론, 에이전트 AI, 물리적 AI 기술이 적용된 애플리케이션을 더 빠르게 실행할 수 있다는 것이 엔비디아의 주장입니다.

엔비디아는 블랙웰 이후 아키텍처 로드맵도 함께 공개했어요. 2026년 하반기에는 차세대 아키텍처 ‘베라 루빈(Vera Rubin)’이 출시가 예정돼 있어 기대를 모으고 있어요. 이는 엔비디아 맞춤형 프로세서 ‘베라’와 속도를 향상한 최신 GPU ‘루빈’을 결합한 새로운 형태의 슈퍼 칩이죠. 또한 2027년에는 한층 발전된 ‘베라 루빈 울트라’를, 2028년에는 ‘파인만’ 아키텍처를 출시할 예정입니다.

젠슨 황은 “블랙웰 성능이 H100에 적용된 호퍼보다 68배 높으며, 루빈 성능은 호퍼의 900배에 달할 것(AI 데이터센터 기준)”이라고 말합니다. 이어 “동일한 성능을 내는 데 필요한 비용은 블랙웰이 호퍼의 13%, 루빈은 호퍼의 3%에 불과할 것”이라고 강조했어요. 반면, 차세대 칩으로 소개된 파인만 아키텍처의 경우, 구체적인 성능 지표는 아직 공개되지 않았습니다.

엔비디아는 블랙웰 울트라 플랫폼을 기반으로 한 신형 DGX AI 컴퓨터인 ‘DGX 스파크’와 ‘DGX 스테이션’을 공개했습니다. DGX는 기업용 AI를 위한 엔비디아의 하드웨어·소프트웨어 통합 플랫폼으로, 데이터센터를 통해서만 사용할 수 있었던 고성능 AI 기능을 개인 PC 크기의 기기에서도 구동할 수 있게 했습니다. 이는 블랙웰 울트라의 높은 연산 성능 덕분입니다.

AI 데이터센터의 진화, 이제는 AI 팩토리 시대

엔비디아는 지난해부터 ‘AI 팩토리(AI Factory)’라는 비전을 실현해 나가고 있습니다.

GTC 2025-AI 기술의 흐름_2

AI 팩토리는 대규모 AI 모델을 훈련하고 추론하는 데 최적화된 ‘완전한 AI 생산 공장’을 의미합니다. 젠슨 황은 AI 팩토리에 대해 “데이터를 받아서 지능을 만들어내는 공장”이라고 일컬었습니다. 기존 데이터센터에서 생산되는 지능은 ‘부산물’인 반면, AI 팩토리는 지능이 핵심적인 생산물이라는 것이죠. AI 팩토리는 AI로 인한 엄청난 컴퓨팅 수요를 수용하기 위해 특별히 제작되며, AI 추론 및 배포를 위한 이상적인 경로를 제공하는 것이 목적입니다.

AI 팩토리에서는 AI 모델 학습(Training), 미세 조정(Fine-tuning), 고성능 추론(Inference) 및 서비스 배포를 중심으로 운영됩니다. 단순히 데이터를 저장하고 처리하는 것을 넘어서, 실시간 자동화, 의사결정, 그리고 혁신을 이끌어낼 수 있는 지능을 창출하는 공간이죠.

젠슨 황은 "AI 팩토리에 들어가는 원자재는 데이터와 전기이며, 거기서 나오는 것은 데이터 토큰”이라며 “이 토큰은 보이지는 않으나 전 세계에 배포될 것”이라고 말했습니다. 그는 AI 팩토리를 일컬어 “새로운 산업 혁명의 본거지”라고 칭했습니다.

AI 팩토리를 구축하려면 ▲강력한 컴퓨팅 성능 ▲고급 네트워킹 ▲인프라 관리 및 워크로드 오케스트레이션 ▲AI 추론 생태계 ▲저장 및 데이터 플랫폼 ▲설계 및 최적화를 위한 청사진 ▲레퍼런스 아키텍처 ▲모든 기업을 위한 유연한 배포 등이 필요합니다. 엔비디아는 자사의 기술을 바탕으로 이러한 모든 요소를 AI 팩토리에 맞게 채울 수 있다고 합니다.

GTC 2025에서 발표되는 새로운 제품이나 기술들 대부분 AI 팩토리를 구성하기 위한 핵심 요소들이에요. 그중 블랙웰 기반의 GPU 칩 GB200 기술이 대표적이죠. 엔비디아 측은 이를 “이 새로운 산업 혁명을 이끌 엔진”이라고 표현하며 “모든 산업을 위한 AI의 약속 실현에 기여할 것”이라고 말합니다.

‘생성’에서 ‘추론’으로 강화된 AI 기술

이번 GTC 2025행사에서 핵심 주제 중 하나는 ‘추론’입니다. AI 분야의 기술적 트렌드가 글, 이미지, 영상 등 다양한 콘텐츠들의 일반적인 ‘생성’을 넘어 ‘추론’ 중심으로 발전하고 있는데요. AI 추론은 훈련된 모델이 이전에 알지 못했던 새로운 데이터에서 패턴을 인식하고 결론을 도출하는 능력을 말합니다. 추론 AI는 단순한 데이터 분석을 넘어, 인과관계를 파악하고 보이지 않는 정보를 추론하며, 새로운 상황에서도 적절한 결론을 도출할 수 있습니다.

추론 AI는 현재 AI 기업 간에 경쟁이 치열하게 벌어지고 있는 분야입니다. 오픈AI, 앤트로픽, 구글, MS 등 대규모언어모델(LLM)을 개발해 온 기업들이 모두 추론 모델을 중심으로 경쟁을 펼치고 있죠. 올해 초, 중국의 딥시크가 세계에 충격을 준 이유가 바로 이 추론 능력 때문입니다. 딥시크의 추론 모델은 상대적으로 낮은 사양의 GPU를 사용했음에도 불구하고, 오픈AI 수준의 추론 능력을 보여줬습니다.

추론 AI는 CoT(Chain of Thought) 방식을 통해 추론을 진행합니다. 이는 한 번에 결론에 도달하는 것이 아니라, 여러 단계에 걸쳐 사고를 이어가며 최종 결과를 도출하는 방식입니다. 문제를 정의하고, 관련 정보를 수집하고, 이를 분석해 최종 결론을 도출하는 과정을 거치죠. AI가 여러 단계를 걸쳐 사고하기 때문에 추론 과정은 더 많은 토큰을 소모하게 됩니다.

추론 모델 개발 수요가 많아질수록 고도화된 연산을 감당할 수 있는 엔비디아의 컴퓨팅 파워는 더욱 필수적이에요. 젠슨 황은 단계적 사고 과정을 거치는 추론 특성상, H100 대신 블랙웰을 사용해야 한다고 강조했습니다.

엔비디아는 추론을 위한 소프트웨어 ‘다이나모(Dynamo)’도 공개했어요. 이를 활용하면 AI 팩토리에서 AI 추론 모델을 더 빠르고 효율적으로 운영하며, 대규모로 확장할 수 있다고 설명했습니다.

다이나모는 추론형 AI 모델을 배포하는 AI 팩토리에서 토큰 기반 수익을 극대화할 수 있도록 설계된 AI 추론 서빙 소프트웨어입니다. 이 소프트웨어는 수천 개의 GPU 간 추론 통신을 조정 및 가속한 뒤, 거대 언어 모델(LLM)의 처리와 생성 단계를 서로 다른 GPU에 분리해 서빙하는 방식을 취합니다. 이를 통해 각 단계에서 특정 요구 사항에 맞춰 독립적인 최적화가 가능하고, GPU 리소스 활용을 극대화할 수 있죠.

추론 성능 개선을 위해 처리량 증가와 비용 절감에 필요한 기능을 통합한 점도 눈에 띄는데요. 요청의 양과 유형 변동이 심한 상황에서 GPU를 동적으로 추가, 제거하거나 재할당할 수 있습니다. 또한, 대규모 클러스터 내에서 특정 GPU를 정확히 식별해 필요한 계산과 쿼리 라우팅을 최소화할 수 있습니다. 아울러, 추론 데이터를 저비용 메모리나 저장장치로 오프로드한 뒤, 필요할 때 빠르게 검색함으로써 전체적인 비용을 절감할 수 있습니다.

엔비디아 측에 따르면, 다이나모는 동일한 수의 GPU를 사용해 AI 팩토리의 성능과 수익을 두 배로 높일 수 있다고 합니다. 특히, GB200 NVL72 랙으로 구성된 대형 클러스터에서 딥시크-R1 모델을 구동할 경우, 다이나모의 지능형 추론 최적화 기능을 통해 GPU당 생성되는 토큰의 수가 30배 이상 증가한다고 밝혔어요.

AI, 우리와 가까이 함께하는 기술

엔비디아는 가상의 영역을 넘어, AI가 실제 세상과 연결되는 새로운 장을 열고자 합니다. 그 대표적인 예가 로봇 개발을 위한 종합 플랫폼 ‘아이작(Isaac)’ 시리즈를 기반으로 한 AI 로봇입니다. 휴머노이드 로봇 개발을 위한 AI 모델, ‘그루트(Groot) N1’을 오픈소스로 선보였고, 제너럴 일렉트릭 헬스케어(GE HealthCare)와 협력하여, AI 기술이 적용된 ‘아이작 헬스케어’ 플랫폼을 개발했으며, 이를 통해 의료 영상 분석부터 로봇 수술, 자동화 진단까지 다양한 의료 분야를 지원합니다. 또한, 이번 행사에서는 디즈니 등과 협력해 개발한 로봇 '블루'도 공개되었어요.

GTC 2025-AI 기술의 흐름_3

AI 기술에서 자율주행차를 빼놓을 수 없죠? 현실에서 구현된 대표적인 AI 기술 중 하나가 바로 자율주행입니다. 엔비디아는 자율주행의 안전성을 강화하기 위해 ‘할로스(Halos)’라는 풀스택 자동차 안전 시스템을 발표했고, 자율주행차가 학습할 수 있는 데이터를 만드는 합성 데이터 ‘블루프린트(Blueprint)’도 공개했습니다. 실제 환경에서 모든 데이터를 수집하는 데는 한계가 있기 때문에, 합성 데이터를 활용해 학습을 지원하는 방식입니다. GM 같은 자동차 제조업체들은 자율주행차 개발을 위한 클라우드 AI 학습부터 디지털 트윈을 활용한 제조 공정까지, 엔비디아 기술을 전방위적으로 도입하고 있어요.

엔비디아는 로봇과 자율주행 차량용 AI 모델 개발에 필요한 ‘개방형 물리 AI 데이터세트’를 무료로 공개했어요. 이 데이터세트는 AI 모델 훈련에 필요한 다양한 데이터를 모은 것으로, 로봇 AI 모델을 훈련하려면 수천 시간 분량의 동영상, 자율주행 AI 모델을 개발하려면 수만 시간의 주행 데이터가 필요합니다. 엔비디아는 이러한 데이터를 오픈소스 커뮤니티인 허깅페이스에 초기 버전으로 공개했습니다.

 

콘텐츠 제공 : 바이라인네트워크(byline.network)

 
 
구독하기 버튼