씽킹머신즈랩, 엔비디아로부터 전략적 투자 유치…기가와트급 AI 칩 공급 계약도


씽킹머신즈랩(Thinking Machines Lab)이 엔비디아(NVIDIA)와 장기 전략적 파트너십을 발표했다. 엔비디아의 차세대 AI 칩인 베라 루빈(Vera Rubin) 시스템 최소 1기가와트를 배포하는 초대형 딜로, AI 인프라 경쟁이 새로운 국면으로 접어들었음을 보여주는 신호탄으로 읽힌다.

jensen huang mira murati nvidia debs 3127 2 1280x971 1 - 와우테일

이번 파트너십의 핵심은 규모다. 1기가와트는 일반 가정 약 75만 가구가 동시에 사용할 수 있는 전력량에 해당하는 컴퓨팅 용량이다. 씽킹머신즈랩은 이 막대한 연산 자원을 프런티어 모델 훈련과 기업 대상 맞춤형 AI 플랫폼 구축에 투입할 계획이며, 베라 루빈 시스템 배포는 내년 초를 목표로 하고 있다. 파트너십에는 하드웨어 공급 외에도 엔비디아 아키텍처에 최적화된 훈련·추론 시스템 공동 설계, 기업·연구기관·과학계를 위한 프런티어 AI 및 오픈 모델 접근성 확대 등이 포함된다.

엔비디아는 칩 공급에 그치지 않고 씽킹머신즈랩에 직접 투자도 단행했다. 구체적인 금액은 공개하지 않았지만 양사는 “중요한 투자(significant investment)”라고 표현했다. 사실 엔비디아는 이미 씽킹머신즈랩의 시드 라운드에도 참여한 바 있어, 이번 추가 투자는 단순한 공급 계약을 넘어선 전략적 동맹 성격이 짙다.

엔비디아 창업자 겸 CEO 젠슨 황은 “AI는 인류 역사상 가장 강력한 지식 발견 도구”라며 “씽킹머신즈랩은 세계 최고 수준의 팀을 모아 AI 프런티어를 개척하고 있다. 그들의 비전을 함께 실현하게 돼 기쁘다”고 밝혔다.

씽킹머신즈랩은 오픈AI(OpenAI) 전 최고기술책임자(CTO) 미라 무라티(Mira Murati)가 2025년 2월 창업한 AI 스타트업이다. 알바니아 출신으로 다트머스 칼리지(Dartmouth College)에서 공학을 전공한 무라티는 테슬라(Tesla)를 거쳐 2018년 오픈AI에 합류, 2022년 CTO 자리에 올랐다. 챗GPT, DALL-E, 코덱스, 소라 등 오픈AI의 대표 제품들이 모두 그의 손을 거쳤다. 2023년 11월 샘 올트먼 CEO 해임 사태 당시에는 사흘간 임시 CEO를 맡아 세간의 이목을 끌기도 했다.

무라티는 “엔비디아의 기술은 AI 분야 전체가 그 위에 세워진 토대”라며 “이번 파트너십으로 사람들이 스스로 형태를 빚고 자기 것으로 만들 수 있는 AI를 구축하는 역량이 크게 빨라질 것”이라고 말했다.

씽킹머신즈랩은 출범 직후부터 오픈AI 출신 스타급 연구진을 대거 영입하며 주목받았다. 오픈AI 공동창업자이자 강화학습(RLHF) 분야 선구자인 존 슐먼(John Schulman), 전 연구 부사장 배럿 조프(Barret Zoph), 릴리언 웡(Lilian Weng), 루크 메츠(Luke Metz) 등이 공동창업자로 이름을 올렸다. 다만 2026년 1월, 조프와 메츠가 오픈AI로 복귀하면서 공동창업자 이탈이라는 악재를 맞기도 했다. 현재 CTO는 파이토치(PyTorch)를 만든 수미스 친탈라(Soumith Chintala)가 맡고 있다.

투자 이력도 화려하다. 창립 6개월 만인 2025년 7월, 안드레센 호로위츠(Andreessen Horowitz) 주도로 엔비디아, AMD, 서비스나우(ServiceNow), 시스코(CISCO), 제인스트리트(Jane Street) 등이 참여한 20억 달러 시드 라운드를 마감해 기업 가치 120억 달러를 인정받았다. 실리콘밸리 역사상 최대 규모 시드 투자 중 하나로 기록된 이 딜은, 무라티의 이름값 하나만으로 투자자들을 끌어모았다는 평가를 받았다. 이후 기업 가치는 더욱 치솟아, 지난해 11월에는 블룸버그가 씽킹머신즈랩이 500억 달러 안팎의 기업 가치를 인정받는 신규 펀딩 협상을 진행 중이라고 보도하기도 했다.

첫 번째 제품인 ‘팅커(Tinker)’는 2025년 10월 출시됐다. 팅커는 대형 언어 모델을 기업이나 연구자의 특정 용도에 맞게 파인튜닝할 수 있는 API로, 방대한 분산 컴퓨팅 인프라를 직접 관리하는 번거로움 없이 쓸 수 있다는 점이 특징이다.

씽킹머신즈랩이 이번 파트너십으로 확보하는 것은 단순한 연산 자원이 아니다. 엔비디아의 베라 루빈 플랫폼은 추론 토큰 비용을 이전 세대 대비 최대 10배 낮추고, 모델 훈련에 필요한 GPU 수를 4분의 1로 줄일 수 있다고 알려져 있다. 프런티어 모델 훈련에 천문학적 비용이 드는 현실에서, 이 파트너십은 씽킹머신즈랩에 오픈AI, 앤쓰로픽(Anthropic), 구글 딥마인드(Google DeepMind) 등 경쟁 AI 연구소에 맞설 핵심 무기가 된다.

엔비디아 역시 전략적 이해관계가 분명하다. 자사 칩에 대한 수요를 탄탄히 묶어두는 동시에, 씽킹머신즈랩이 개발하는 차세대 AI 모델의 성과를 함께 누릴 수 있는 구조다. 베라 루빈 시스템은 올해 하반기부터 AWS, 구글 클라우드, 마이크로소프트, 코어위브(CoreWeave) 등을 통해 배포될 예정으로, 씽킹머신즈랩의 내년 초 도입은 최전선에 서겠다는 의지를 보여준다.

기사 공유하기

답글 남기기