AI 데이터센터 CPU 판도 바꾼다…RISC-V 개척자 사이파이브, 4억 달러 유치


엔비디아가 GPU로 AI 인프라 시장을 장악한 것과 달리, CPU 쪽 판도는 아직 열려 있다. x86을 쥔 인텔은 AI 데이터센터 수요에 뒤처졌고, 암(Arm)은 서버 시장에서 빠르게 점유율을 키우고 있지만 라이선스 비용과 커스터마이징 제약이라는 한계가 있다. 하이퍼스케일러들이 새로운 선택지를 찾는 이유다.

SiFive Logo - 와우테일

사이파이브(SiFive)가 그 자리를 노리고 있다. 4월 9일 사이파이브는 초과 청약된 시리즈G에서 4억 달러를 유치했다고 발표했다. 기업가치는 36억 5천만 달러로 평가됐다. 에이트리즈 매니지먼트(Atreides Management)가 라운드를 주도했으며, 아폴로 글로벌 매니지먼트(Apollo Global Management), 엔비디아(NVIDIA), 포인트72 튜리온(Point72 Turion), T. 로우 프라이스 인베스트먼트 매니지먼트(T. Rowe Price Investment Management)가 신규로 참여했고, 기존 투자사인 프로스페리티7 벤처스(Prosperity7 Ventures)와 서터 힐 벤처스(Sutter Hill Ventures)도 함께했다. CEO 패트릭 리틀(Patrick Little)은 이번 투자가 IPO 전 마지막 사모 라운드라고 밝혔다.

사이파이브의 뿌리는 CPU 아키텍처 자체를 발명한 연구자들로 거슬러 올라간다. RISC-V 개발은 2010년 UC 버클리의 병렬 컴퓨팅 연구소에서 크르스테 아사노비치(Krste Asanović) 교수와 당시 대학원생이었던 앤드류 워터만(Andrew Waterman), 이윤섭(Yunsup Lee)이 시작했다. 컴퓨터 아키텍처의 아버지로 불리는 데이비드 패터슨(David Patterson)의 지원 아래, 단순하고 유연하며 무엇보다 개방된 명령어 집합 아키텍처(ISA)를 만들겠다는 목표였다. 세 사람은 2015년 사이파이브를 공동 창업하며 학술 연구를 상업화로 이어갔다.

크르스테 아사노비치는 현재 사이파이브 수석 아키텍트로 UC 버클리 교수직을 겸하고 있으며 RISC-V 파운데이션 의장을 맡고 있다. 이윤섭은 한국과학기술원(KAIST) 학부 졸업 후 UC 버클리에서 석·박사 학위를 받았으며 현재 사이파이브 CTO다. 앤드류 워터만은 듀크대 학부, UC 버클리 석·박사 출신으로 사이파이브 수석 엔지니어이자 RISC-V 인터내셔널 특권 아키텍처 ISA 위원회 부의장을 맡고 있다.

사이파이브의 비즈니스 모델은 암과 구조적으로 같다. 칩을 직접 제조하지 않고 RISC-V 기반 프로세서 코어 설계를 라이선스 형태로 판매한다. 결정적 차이는 RISC-V라는 아키텍처의 성격 자체에 있다.

x86은 1978년 인텔이 설계한 복잡 명령어 집합(CISC) 기반 아키텍처로, 수십 년간 하위 호환성을 유지하며 명령어가 쌓여왔다. 지금의 x86 칩은 DOS 시대 명령어도 처리할 수 있어야 하고, 트랜지스터의 상당 부분이 이 레거시 해석기에 낭비된다. 구조적으로 전력 효율이 나쁠 수밖에 없는 이유다. 암은 x86보다 단순·효율적이지만, 아직 라이선스 비용이 있고 커스터마이징에 제한이 따른다. 게다가 암 홀딩스가 직접 칩 설계에 뛰어들 가능성을 내비치면서 고객사들의 불안감이 커지고 있다. 공급자가 곧 경쟁자가 될 수 있는 구조다.

RISC-V는 TCP/IP나 리눅스처럼 아무도 소유하지 않는 오픈 표준이다. 퍼유닛 로열티 없이 자유롭게 구현·확장·상용화할 수 있고, 고객이 자사 워크로드에 최적화된 명령어를 ISA 레벨에서 직접 추가할 수 있다. 예컨대 AWS가 트레이니엄 칩을 설계할 때 자사 추론 워크로드에 특화된 연산을 칩 레벨에서 구현하고 싶어도, 암 ISA 위에서는 허용된 범위 내에서만 가능하다. RISC-V는 이 제약이 없다. 리틀 CEO는 하이퍼스케일러들의 일관된 요구는 데이터센터 컴퓨팅을 차별화할 수 있는 커스터마이즈 가능한 CPU 솔루션이며, RISC-V만이 그 요구에 진정으로 부응할 수 있는 아키텍처라고 강조했다.

데이터센터 전략의 중심에는 에이전틱 AI가 있다. 에이전틱 AI에서 CPU의 역할이 새롭게 부각되는 이유는 연산 구조의 변화에 있다. GPU는 행렬 연산 같은 병렬 작업에는 탁월하지만, AI 에이전트가 “다음에 뭘 할지 결정”하는 복잡한 조율 루프는 CPU의 몫이다. 에이전틱 AI는 이 루프를 더 자주, 더 복잡하게 돌린다. CPU와 GPU 사이에서 명령이 오가는 횟수가 늘어날수록 CPU의 효율과 응답 속도가 전체 시스템 성능을 좌우한다. 사이파이브는 레거시 아키텍처를 저전력 RISC-V CPU로 교체해 이 병목을 해소하겠다는 구상이다.

엔비디아가 이번 라운드에 참여한 데는 기술적 맥락이 있다. 2026년 1월 사이파이브는 고성능 데이터센터 플랫폼에 NVLink 퓨전(NVLink Fusion)을 통합한다고 발표했다. RISC-V 기반 CPU가 엔비디아 GPU에 고대역폭 코히런트 인터커넥트로 직접 연결되는 구조로, CPU↔GPU 간 병목을 기존 PCIe 대신 NVLink로 해소한다. 이는 원래 엔비디아의 자체 암 기반 그레이스(Grace)·베라(Vera) CPU에만 허용되던 방식을 RISC-V까지 확장한 것이다. 와우테일은 이 파트너십을 앞서 보도한 바 있다.

다만 RISC-V가 데이터센터에 지금까지 본격 진입하지 못했던 이유는 소프트웨어 생태계 부재였다. x86과 암에는 수십 년간 쌓인 컴파일러, 드라이버, 운영체제 최적화가 있다. RISC-V는 하드웨어 설계는 가능해도 “그 위에서 CUDA가 돌아가는가”, “레드햇 리눅스가 되는가”라는 질문에 한동안 답하기 어려웠다. 사이파이브가 이번 투자금의 상당 부분을 CUDA·레드햇 엔터프라이즈 리눅스·우분투의 RISC-V 포팅에 쓰겠다고 명시한 이유가 바로 이것이다. 엔비디아가 CUDA를 RISC-V에 포팅하기로 한 것 자체가 이미 업계 신호탄으로 읽힌다.

사이파이브의 가장 앞선 데이터센터 설계는 퍼포먼스 P870-D로, 최대 256개 코어로 서버 CPU를 구성할 수 있다. 현재 IP는 500개 이상의 설계에 탑재됐으며 100억 개 이상의 코어가 출하됐다. 회사는 2025년에 역대 최고 성장을 기록했으며, 이번 라운드로 기업가치는 2022년 시리즈F 당시 25억 달러에서 36억 5천만 달러로 뛰었다.

투자 맥락도 주목할 만하다. 아마존은 2026년 4월 주주서한에서 트레이니엄 칩 프로그램에 500억 달러를 약속하며 사내 AI 실리콘을 필수 인프라로 못 박았다. 구글·앤트로픽·브로드컴도 커스텀 AI 컴퓨팅 거래를 추진 중이다. 사이파이브는 이런 흐름 속에서 완전히 커스터마이즈 가능하고, 어느 단일 기업도 소유하거나 조건을 바꿀 수 없는 오픈 표준이라는 세 번째 길을 제시한다. 리눅스가 유닉스를 이긴 것처럼, 오픈 표준이 독점 아키텍처를 이긴다는 논리다.

RISC-V IP 시장의 경쟁 구도도 빠르게 재편되고 있다. 직접 경쟁자는 암(Arm)이며, RISC-V 진영에서는 짐 켈러(Jim Keller)가 이끄는 텐스토렌트(Tenstorrent)가 자체 어센도(Ascalon) 코어를 IP로 라이선스하기 시작했다. 다만 텐스토렌트의 한 임원은 “RISC-V 생태계가 강해지려면 신뢰할 수 있는 고성능 CPU IP 기업이 많아져야 한다”며 경쟁보다 공생을 강조했다.AI 데이터센터 인프라 경쟁에 대한 자세한 내용은 와우테일의 AI 인프라 지형도를 참고하시길.

기사 공유하기

답글 남기기