X

비수기 없는 AI…브로드컴, K반도체 구원투수 될까

김소연 기자I 2025.01.20 17:46:41

브로드컴·마벨서 AI칩 설계…AI메모리 수요
AI 전용칩 투자가 K반도체 새로운 모멘텀
엔비디아 외 NPU용 HBM 납품 확대 예상

[이데일리 김소연 기자] 인공지능(AI) 주도 경쟁이 본격화하고 있다. 엔비디아에 대항하는 브로드컴의 등장으로 국내 AI 반도체 생태계에도 긍정적인 전망이 감돈다. AI 가속기에 필수적인 고대역폭메모리(HBM)를 만드는 국내 기업들에는 빅테크들의 AI 전용 칩 투자가 새로운 모멘텀으로 작용할 것이라는 예측이 나온다.

20일 시장조사업체 가트너에 따르면 세계 AI 반도체 시장은 2022년 422억 달러에서 2024년 약 840억 달러, 2028년에는 약 1965억 달러 규모로 연평균 29.2% 성장할 전망이다. 주요 기업들이 AI 반도체 분야에 집중 투자하며 2030년까지 급성장할 것으로 보인다.

미국 빅테크들이 주문형 반도체(ASIC)를 출시, 확대함에 따라 국내 반도체 기업에도 긍정적이다. 현재 AI 워크로드에 필요한 데이터센터의 대표 컴퓨팅 플랫폼이 그래픽처리장치(GPU)다. 마이크로소프트, 메타 등 미국 빅테크는 엔비디아의 GPU를 통해 AI 데이터센터를 짓고 있다.

값 비싼 엔비디아의 GPU에 대항하기 위해 구글를 비롯한 MS, 메타, 아마존 등이 자체적으로 칩을 설계해 AI 연산에 특화한 신경망처리장치(NPU)를 만드는 시도를 하고 있다. 구글은 자체 NPU인 텐서처리장치(TPU)를 만들었다.

브로드컴 로고(사진=로이터)
브로드컴이나 마벨과 같은 기업들이 엔비디아를 대신해 미국 빅테크 반도체 설계 사업에 밀착하며 AI의 전용 칩을 만들어주고 있다. 브로드컴은 클라우드 사업 초기에 데이터센터를 위한 소프트웨어 툴도 함께 제공하고 있다. 엔비디아의 독점이 가능한 이유가 ‘쿠다’라는 GPU 구동을 위한 소프트웨어인데, 브로드컴 역시 같은 전략을 쓰고 있는 것이다.

결국에는 GPU용, NPU용 HBM이나 전용 AI 메모리와 같은 특수한 칩 수요는 계속 이어질 것으로 예상된다. 국내 메모리 기업들이 엔비디아 외에도 브로드컴이나 마벨에 AI 메모리를 위한 칩을 납품할 수 있어서다. 실제로 브로드컴이 설계한 구글의 TPU에는 HBM3E가 탑재돼있다. 그외 △마이크로소프트 마이아100(HBM2E) △아마존 트레이니움2(HBM3E) △메타 MTIA v2(LPDDR5X) 등이 고성능·고용량의 메모리를 탑재했다. 구글과 메타의 AI칩은 브로드컴이, 마이크로소프트와 아마존의 AI용 칩은 마벨에서 설계하고 있다.

AI에 맞춤형 서비스를 제공하려는 미국 빅테크들의 전략은 지속될 전망이다. ASIC칩은 방대한 워크로드를 필요로 하는 범용 GPU보다 전력소비와 비용 측면에서 효율적이다. AI 워크로드만을 위해 만들어지기 때문이어서다.

성장 측면에서도 AI 반도체 중요성은 커지고 있다. 가트너는 향후 5년 이상 가장 큰 영향을 미칠 2025년 10대 전략적 기술 트렌드에 에이전틱AI(Agentic AI)를 꼽았다. 생성형 AI나 챗봇과 달리 더 높은 수준의 자율성과 문제 해결력을 가진 AI로, AI 기술에서 새로운 패러다임을 제시할 것으로 보인다. 단순한 질의응답에서 넘어선 더 발전한 AI가 다양한 산업 분야에서 혁신을 이끌 수 있다는 뜻이다.

업계 관계자는 “온디바이스AI용 AI 가속기 수요도 역시 늘어날 것”이라며 “결국 GPU나 NPU 등 AI 하드웨어를 위한 메모리 수요는 지속할 것이란 미래는 분명하다”고 설명했다.

주요 뉴스

ⓒ종합 경제정보 미디어 이데일리 - 상업적 무단전재 & 재배포 금지