뉴스 목록Google, 8세대 TPU 공개: 훈련과 추론을 각각 담당하는 두 가지 AI 칩으로 Nvidia의 약점 공략
動區 BlockTempo2026-04-23 01:16:08

Google, 8세대 TPU 공개: 훈련과 추론을 각각 담당하는 두 가지 AI 칩으로 Nvidia의 약점 공략

ORIGINALGoogle 推第八代 TPU:兩款 AI 晶片分攻訓練與推論,挑戰 Nvidia 痛點
AI 영향 분석Grok 분석 중...
📄전체 원문· trafilatura에 의해 자동 추출됨Gemini 翻譯1896 자
Google은 Cloud Next 2026에서 8세대 TPU를 발표하며, 처음으로 학습(Training)과 추론(Inference) 작업을 두 개의 전용 칩인 TPU 8t와 TPU 8i로 분리했습니다. 달러당 성능이 80% 향상되었다고 주장합니다. (이전 요약: Anthropic은 Broadcom과의 협력 및 Google의 TPU 칩 채택 확대를 발표하며 연간 매출이 300억 달러로 급증했습니다.) (배경 보충: Nvidia의 총애를 받는 기업도 예외는 아니다! Core Scientific의 '최대 주주'가 CoreWeave의 인수 제안을 거절: 90억 달러의 기업 가치는 너무 낮음) Google의 1세대 TPU(Tensor Processing Unit, AI 연산을 위해 설계된 자체 개발 칩)가 2016년에 출시되었을 때, 시장은 이것이 Nvidia의 종말을 가져올 것이라고 예측했습니다. 결과는 어땠을까요? Nvidia의 시가총액은 지난 10년 동안 수천억 달러에서 수십 배 성장했고, 그 예측들은 대부분 실현되지 않았습니다. 이번에 Google은 Cloud Next 2026 컨퍼런스에서 8세대 TPU를 출시하며 과거에는 시도하지 않았던 결정을 내렸습니다. 학습과 추론을 분리하여 각각 별도의 칩으로 처리하기로 한 것입니다. '학습'과 '추론'은 AI 연산의 완전히 다른 두 단계입니다. - 학습은 모델이 방대한 데이터로부터 배우는 과정으로, 매우 높은 연산 밀도가 필요합니다. - 추론은 모델이 학습을 마친 후 사용자의 매번 다른 질문에 응답하는 과정으로, 낮은 지연 시간과 낮은 비용이 필요합니다. 과거 Google은 동일한 TPU로 이 두 가지 수요를 모두 대응했으나, 8세대부터는 두 작업이 공식적으로 분리되었습니다. TPU 8t는 학습 전용 칩입니다. 12.6 petaFLOPS의 4비트 부동소수점 연산 능력(petaFLOPS는 초당 1,000조 번의 부동소수점 연산을 의미하며, 숫자가 클수록 연산 속도가 빠름), 216 GB의 고대역폭 메모리, 그리고 6.5 TB/s의 메모리 대역폭을 갖추고 있습니다. Google은 이 칩이 이전 세대보다 학습 속도가 3배 빠르며, 100만 개 이상의 TPU가 단일 클러스터에서 동시에 협업할 수 있다고 밝혔습니다. TPU 8i는 추론 전용 칩입니다. 10.1 petaFLOPS의 FP4 연산 능력, 288 GB의 고대역폭 메모리, 그리고 데이터 이동 지연을 줄이기 위한 더 큰 384 MB의 온칩 메모리를 갖추고 있습니다. Google은 이 칩이 이전 세대 Ironwood TPU 대비 달러당 추론 성능이 80% 향상되었으며, 특히 낮은 지연 시간 목표에서 두각을 나타낸다고 설명했습니다. 두 칩은 2026년 내에 공식적으로 공개될 예정입니다. Google의 이번 칩 분리 전략은 Nvidia의 약점 중 하나인 '범용성'을 직접 겨냥한 것입니다. Nvidia의 GPU는 단일 제품 라인으로 학습과 추론을 모두 처리합니다. Nvidia가 곧 출시할 Vera Rubin 칩의 사양은 35 petaFLOPS FP4 연산, 288 GB HBM4 메모리, 22 TB/s 메모리 대역폭으로, 원시 연산 수치는 여전히 Google TPU 8t의 12.6 petaFLOPS보다 앞서 있습니다. 하지만 단순히 petaFLOPS를 비교하는 것은 또 다른 차원인 '비용 구조'를 가립니다. 추론 시장의 경쟁은 본질적으로 '모델이 답변할 때마다 발생하는 비용'에 달려 있습니다. Google은 TPU 8i의 설계 목표를 추론 단위 비용 절감에 맞췄으며, 이는 Anthropic, OpenAI 등 대형 모델 기업들이 가장 중요하게 생각하는 수치입니다. 주목할 점은 Anthropic이 자사 Claude의 학습 및 서비스 인프라를 '멀티 기가와트(multi-gigawatt)' 수준의 TPU 용량으로 확장하겠다고 발표하며 현재 공개된 가장 큰 TPU 고객이 되었고, OpenAI 또한 Google의 TPU 용량을 사용하기 시작했다는 것입니다. 그렇다고 Google이 Nvidia를 부정하는 것은 아닙니다. Google은 자사 클라우드에서
데이터 상태✓ 전체 내용 추출 완료원문 읽기 (動區 BlockTempo)
🔍과거 유사 사건· 키워드 + 종목 매칭6 건
💡 현재 키워드 + 종목 매칭(MVP) 사용 중 · 추후 embedding 의미론적 검색으로 업그레이드 예정
원본 정보
ID:f956b2da18
출처:動區 BlockTempo
발행:2026-04-23 01:16:08
분류:zh_news · 도출된 분류 zh
종목:지정되지 않음
커뮤니티 투표:+0 /0 · ⭐ 0 중요 · 💬 0 댓글