구글 터보퀀트 반도체 급락 — 메모 정리법이 건물 수요를 줄이진 않는다

구글 터보퀀트 반도체 시장을 강타했다. 한경은 “메모리의 딥시크 모먼트”라 불렀지만, 실제로 줄어드는 건 GPU 위의 임시 메모장 공간이지 서버에 꽂히는 HBM 모듈이 아니다. 26일 삼성전자 -4.71%(180,100원), SK하이닉스 -6.23%(933,000원), 코스피 -3.22%. 외국인은 1.9조 원을 팔아 치웠다.

하지만 반도체 수급 지도를 다시 그려야 할 정도의 변화인지는 의문이다. KV캐시 압축과 HBM 수요는 다른 층위의 문제고, 기술이 효율을 높일수록 역설적으로 AI 사용량은 증가한다.

📌 핵심 요약

  • 구글 터보퀀트: KV캐시 메모리 6배 압축(16비트→3비트), 추론 성능 8배 향상
  • 삼성전자 -4.71%, SK하이닉스 -6.23% 급락 — 외국인 1.9조 원 매도
  • 핵심: 터보퀀트가 줄이는 건 추론 단계 KV캐시이지, HBM·DRAM 수요가 아니다
  • 상용화까지 최소 6~12개월 — 연구 단계 기술에 시장이 과잉 반응

삼성전자 -4.7%, SK하이닉스 -6.2% — 무슨 일이 있었나

26일 구글 리서치가 ICLR 2026(국제학습표현컨퍼런스) 발표 예정인 터보퀀트 논문을 공개했다. 핵심은 이것이다: 생성형 AI가 텍스트를 출력할 때마다 쌓이는 KV캐시(Key-Value Cache)를 16비트에서 3비트로 압축하면서도 정확도 손실이 거의 없다는 것. 메모리 점유 기준 6배 감소, NVIDIA H100 기준 추론 성능 8배 향상이라고 주장한다.

뉴스가 퍼지자 반도체주는 동반 하락했다. 국내 시장은 외국인 매도 1.9조 원의 쏠림으로 코스피 전체가 -3.22%(5,460.46)까지 빠졌다. 미국에서도 마이크론 -3%(주간 -12%), SanDisk -11.05%가 동시에 무너졌다. 시장의 해석은 단순했다: “메모리 수요가 줄어든다.”

-4.71%
삼성전자 (180,100원)
-6.23%
SK하이닉스 (933,000원)
-3.22%
코스피 (5,460.46)
-1.9조
외국인 순매도

구글 터보퀀트 반도체 — KV캐시 6배 압축의 진짜 의미

여기서 멈춰야 한다. 시장이 놓친 부분이 있다. KV캐시는 HBM이 아니다. 비유로 설명하면 이렇다. HBM(High Bandwidth Memory)은 데이터센터라는 “건물 자체”이고, KV캐시는 그 안에서 AI가 추론할 때마다 쌓이는 “사무실 책상 위의 메모”다. 메모 정리 방법을 100배 효율화해도 건물 확충 계획은 바뀌지 않는다.

KV캐시
추론 임시 메모리
터보퀀트 영향: 6배 감소
비유: 책상 위 메모장
VS
HBM·DRAM
학습·모델 가중치
터보퀀트 영향: 거의 없음
비유: 건물 자체

실제로 터보퀀트가 건드리는 건 순수하게 추론(inference) 단계뿐이다. 모델 가중치(weights)나 학습(training) 과정에서 사용하는 메모리는 전혀 줄이지 못한다. AI 칩 수요의 80% 이상이 학습 단계에서 발생한다는 점을 생각하면, 터보퀀트의 영향 범위는 전체 메모리 수요의 일부에 불과하다.

더 중요한 건 제본스 역설(Jevons Paradox)이다. 추론 효율이 8배 올라가면 AI 서비스 비용이 급감한다. 비용이 떨어지면? AI 사용량이 폭증한다. 더 많은 동시 사용자, 더 긴 대화, 더 복잡한 쿼리. 이 모든 것은 결국 더 많은 GPU, 더 많은 HBM을 요구한다. 마이크론 HBM4 양산 분석에서 다뤘듯이, AI 모델 파라미터는 GPT-4의 1.76조 개를 넘어 10조 대까지 확장되는 추세다. 추론 메모리 압축 하나로 이 거대한 물결이 꺾이지는 않는다.

구글 자체도 아직 연구 단계다. 4월 ICLR에서 발표하고, 상용 서비스에 반영하기까지 최소 6~12개월이 필요하다. 경쟁사 채택은 그 이후다. 오늘의 주가 반응은 이 “시간 갭”을 완전히 무시한 것이다.

HBM·DRAM 메모리반도체 수요 전망이 바뀌는가

업계 데이터는 시장의 공포와 다른 이야기를 한다.

첫째, 메타가 LLaMA 학습에 투입한 계산량은 추론의 수백 배다. OpenAI, Anthropic, DeepSeek 모두 파라미터 경쟁을 멈추지 않았다. 새로운 멀티모달 모델이 나올 때마다 학습에 필요한 HBM은 오히려 늘어난다. 터보퀀트는 이 부분을 전혀 건드리지 못한다.

둘째, 대형 클라우드 업체들의 2026년 AI 자본 지출 계획은 여전히 수십조 원 규모다. 구글 자신이 올해 AI 인프라에 750억 달러를 투자하겠다고 밝혔다. 자기 회사가 개발한 기술이 메모리 수요를 줄인다면, 왜 수십조를 쏟아붓겠는가. 솔직히 이 모순이 가장 강력한 반론이다.

셋째, 애널리스트 합의도 명확하다. TrendForce는 터보퀀트를 “evolutionary, not revolutionary”로 평가했고, 압축 알고리즘은 수년간 존재해왔지만 조달 물량을 근본적으로 바꾼 적이 없다고 지적했다. 구글 리서치 공식 블로그에서도 이 기술이 학습 단계 메모리를 줄이지 못한다는 점을 명시하고 있다.

반도체 포지션을 점검한다

그렇다고 외국인 1.9조 매도를 무시할 수는 없다. 투자 심리가 흔들렸다는 건 사실이다. 여기서 중요한 건 이 변화가 “구조적 악화”인지 “기술적 조정”인지 구분하는 것이다. 외국인 순매도 분석에서 확인한 패턴을 보면, 이번 매도는 기술 뉴스에 따른 단기 리밸런싱에 가깝다.

✅ 투자 포인트

  • KV캐시 ≠ HBM — 터보퀀트의 영향 범위는 전체 메모리 수요의 일부
  • 제본스 역설: 추론 효율 향상 → AI 사용량 증가 → 장기 HBM 수요 확대 가능
  • 연구 단계 기술 — 상용화까지 최소 6~12개월, 시장은 시간 갭을 무시 중
  • 구글 자체 AI 자본 지출 750억 달러 계획 유지 = 메모리 수요 구조 변화 없다는 자증

⚠️ 주의할 리스크

  • Meta·OpenAI·Anthropic도 유사 압축 기술 개발 중 — 복합 효과 가능
  • 추론 최적화가 학습 단계까지 확대될 경우 HBM 수요 직격 가능
  • 외국인 지속 매도 시 단기 기술적 약세 연장
  • AI 거품 논쟁 + 거시경제 불안 → 반도체 섹터 전반 밸류에이션 압박

반도체 포지션 점검 체크리스트

☑️ 내 포트폴리오의 메모리 반도체 비중이 과도하게 부풀어 있지 않은가
☑️ 삼성·SK하이닉스 중기 실적 전망(컨센서스)이 변했는가 확인
☑️ 터보퀀트 vs HBM — 기술 영향 범위를 구분하고 있는가
☑️ 외국인 매도가 “구조 악화”인지 “단기 리밸런싱”인지 판단
☑️ 충동 매도보다 6~12개월 상용화 시간 갭을 감안한 분할 대응

종합하면 구글 터보퀀트 반도체 급락은 과잉 반응이라고 본다. 근거는 ①KV캐시와 HBM은 다른 층위의 메모리이고, ②제본스 역설에 따라 효율 향상이 오히려 총 수요를 키울 수 있으며, ③구글 자신이 750억 달러 AI 투자를 유지하고 있다는 점이다. 이 판단이 틀리려면 AI 모델이 파라미터 축소 추세로 전환되고, 추론 최적화 기술이 학습 단계까지 확대되어야 한다. 현재로서는 그 가능성이 낮다.

나라면 이렇게 움직이겠다. 삼성전자·SK하이닉스를 한꺼번에 추격 매수하지 않는다. 대신 터보퀀트의 실제 상용화 진행 상황을 주시하면서, 향후 2~3주간 분할 매수로 접근한다. 6개월 뒤 구글·메타·아마존의 AI 인프라 자본 지출 실적이 나오면, 오늘의 우려가 기우였는지 데이터가 증명해줄 것이다.

⚠️ 본 글은 정보 제공 목적으로 작성되었으며, 특정 종목의 매수·매도를 권유하지 않습니다. 모든 투자의 책임은 투자자 본인에게 있습니다.

snakestock.com

ETF · 거시경제 · 절세전략

공신력 있는 공식 자료를 바탕으로 개인투자자에게 실질적인 투자 정보를 제공합니다. 특정 종목의 매수·매도를 추천하지 않습니다.

댓글 남기기