AI/해외 AI 뉴스 소식

[AI 정보] 구글 TPU 8t·8i 공개, AI 인프라 경쟁이 다시 뜨거워집니다

AIThinkLab 2026. 4. 25. 07:10
SMALL

🧠 구글이 AI 인프라 경쟁에서 다시 한 번 큰 승부수를 던졌습니다.

 

이번에 공개된 핵심은 8세대 TPU를 두 갈래로 나눈 TPU 8tTPU 8i입니다. 하나는 대규모 모델 학습용, 다른 하나는 추론과 에이전트 워크로드용으로 역할을 분리했습니다.

 

TechCrunch와 구글 클라우드 공식 블로그를 종합하면, 구글은 이제 “칩 하나로 모든 AI 일을 처리한다”는 접근 대신, 학습과 추론을 서로 다른 병목 구조로 보고 아예 하드웨어 설계를 나누는 방향으로 들어갔습니다.

 

🚀 왜 이번 발표가 중요한가요?

 

AI 시장은 지금까지 주로 엔비디아 GPU가 사실상 표준처럼 여겨져 왔습니다. 하지만 클라우드 사업자 입장에서는 엔비디아 의존도가 높아질수록 원가와 공급 리스크를 함께 떠안게 됩니다.

 

구글은 오래전부터 TPU를 자체 설계해 왔지만, 이번에는 단순 세대 업그레이드가 아니라 에이전트 시대에 맞춘 구조 개편이라는 점에서 의미가 큽니다.

 

공식 설명에 따르면 TPU 8t는 대형 모델 훈련을 위한 고처리량 중심 구조이고, TPU 8i는 지연시간과 메모리 사용량이 중요한 추론·강화학습 워크로드에 맞춰 설계됐습니다.

 

쉽게 말하면, “학습 잘하는 칩”과 “서비스 잘하는 칩”을 따로 만든 것입니다. AI 산업이 이제 실험실에서 제품 단계로 넘어가고 있다는 신호로 읽을 수 있습니다.

 

📌 공개된 주요 숫자

 

TechCrunch 보도에서는 TPU 8세대가 최대 3배 빠른 학습, 성능 대비 비용 80% 개선, 단일 클러스터에서 100만 개 이상의 TPU 연결 가능성 등을 강조했습니다.

 

구글 클라우드 블로그는 TPU 8t가 9,600개 칩 규모의 슈퍼팟과 121 엑사플롭스급 연산 능력을 제공한다고 설명했고, TPU 8i는 초저지연 추론과 강화학습에 맞춘 메모리·대역폭 구조 개선을 내세웠습니다.

 

또한 구글은 자사 TPU만 밀어붙이는 것이 아니라, 올해 후반에는 NVIDIA Vera Rubin 기반 인스턴스도 제공하겠다고 밝혔습니다. 즉, “우리는 엔비디아와도 협력하지만, 비용 구조는 우리 식으로 더 유리하게 가져가겠다”는 이중 전략입니다.

 

⚔️ 엔비디아와의 경쟁 구도는 어떻게 볼까

 

이번 발표만으로 당장 엔비디아의 지배력이 흔들린다고 보기는 어렵습니다. 여전히 생태계, 개발자 친화성, 소프트웨어 툴체인에서는 CUDA 진영의 힘이 강합니다.

 

다만 중요한 변화는 있습니다. 거대 클라우드 사업자들이 AI 수요 증가를 감당하기 위해 자체 칩 로드맵을 더 공격적으로 밀고 있고, 학습·추론·에이전트 운영을 세분화해 전용 하드웨어로 최적화하기 시작했다는 점입니다.

 

이 흐름이 이어지면 고객 입장에서는 “어떤 모델을 쓰느냐”만큼이나 “어떤 클라우드에서 어떤 칩 위에 올리느냐”가 비용 경쟁력과 성능을 결정하게 됩니다.

 

🏢 기업 고객에게 주는 의미

 

기업이 AI 서비스를 실제로 운영할 때 가장 민감한 요소는 두 가지입니다. 첫째는 응답 속도이고, 둘째는 운영 비용입니다.

 

특히 에이전트형 서비스는 한 번의 질문에 여러 모델 호출, 검색, 외부 도구 실행이 뒤따르기 때문에 추론 비용이 빠르게 커집니다. 이때 추론 전용 구조를 가진 하드웨어는 단순 스펙 경쟁이 아니라 사업성 경쟁으로 이어집니다.

 

그래서 이번 구글 발표는 칩 뉴스이면서 동시에 “기업 AI를 더 싸고 빠르게 운영하겠다”는 플랫폼 메시지이기도 합니다.

 

🔍 앞으로 투자자와 업계가 볼 지점

 

첫 번째는 실제 가용 시점입니다. 발표만 있고 공급이 늦어지면 시장 영향은 제한적일 수 있습니다. 반대로 예정대로 고객 제공이 시작되면 구글 클라우드의 가격 협상력은 더 세질 수 있습니다.

 

두 번째는 소프트웨어 적응 속도입니다. TPU가 아무리 좋아도 개발자가 쉽게 옮겨갈 수 있어야 합니다. 구글이 JAX와 PyTorch 지원, 클러스터 운영 경험을 얼마나 매끄럽게 제공하느냐가 중요합니다.

 

세 번째는 엔비디아와의 관계입니다. 경쟁하면서도 협력하는 구조가 유지될 가능성이 큽니다. 그래서 향후 고객은 특정 칩 하나를 고르는 것이 아니라, 워크로드별로 TPU와 GPU를 함께 쓰는 하이브리드 전략을 더 많이 선택할 수 있습니다.

 

결국 중요한 것은 벤더 이름보다 실제 총소유비용입니다. 같은 서비스를 운영하더라도 학습 단계, 추론 단계, 피크 트래픽 대응 방식에 따라 가장 유리한 인프라 조합이 달라질 수 있기 때문입니다.

 

특히 에이전트형 AI는 단순 채팅형 서비스보다 호출 빈도와 메모리 사용 패턴이 복잡합니다. 따라서 앞으로 인프라 경쟁은 ‘누가 더 큰 칩을 만들었나’보다 ‘누가 실제 서비스형 AI를 더 효율적으로 굴리게 해주나’로 바뀔 가능성이 큽니다.

 

그 점에서 이번 발표는 하드웨어 뉴스이면서도, 동시에 기업용 AI 수익모델을 둘러싼 가격 경쟁 선언으로 읽을 수 있습니다.

 

📝 에드워드의 한줄 해석

 

AI 인프라 경쟁은 이제 모델 성능만의 싸움이 아닙니다. 누가 학습과 추론, 그리고 에이전트 운영까지 분리 최적화한 전체 스택을 갖추느냐가 다음 승부처입니다. 이번 TPU 8t·8i 발표는 구글이 그 싸움을 본격적으로 시작했다는 신호로 보입니다.

 

🔗 출처

 

LIST