AWS re:Invent 2025, ‘에이전틱 AI 시대’ 본격 개막…프론티어 에이전트부터 3nm AI 칩까지


아마존웹서비스(Amazon Web Services, AWS)가 라스베이거스에서 개최된 연례 컨퍼런스 re:Invent 2025에서 에이전틱 AI를 중심으로 한 대규모 혁신을 선보였다. 12월 1일부터 5일까지 진행되는 이번 행사에서 AWS는 며칠간 자율적으로 작업을 수행하는 프론티어 에이전트, 3나노 공정으로 제작된 4세대 AI 칩 트레이니엄3(Trainium3), 기업 전용 AI 인프라 구축 서비스 등을 대거 발표했다.

매트 가먼(Matt Garman) AWS CEO는 개막 기조연설에서 AI 에이전트가 “기술적 경이로움에서 실제 비즈니스 가치를 제공하는 변곡점”에 도달했다고 강조했다. 그는 인간이 잠든 사이에도 AI가 작업을 수행하는 미래를 제시하며, 에이전틱 AI 시대의 본격적인 개막을 선언했다.

AWS re Invent 2025 keynote - 와우테일

키노트 영상: AWS re:Invent 2025 키노트 스트리밍 | YouTube

며칠간 자율 작동하는 ‘프론티어 에이전트’

이번 행사의 하이라이트는 단연 ‘프론티어 에이전트(frontier agents)‘다. 이들은 소프트웨어 개발팀을 확장하는 새로운 클래스의 AI 에이전트로, 인간의 지속적인 개입 없이도 수 시간에서 며칠에 걸쳐 복잡한 멀티스텝 프로젝트를 처리할 수 있다.

AWS가 선보인 세 가지 프론티어 에이전트의 역할은 각기 다르다. 키로 자율 에이전트(Kiro autonomous agent)는 말 그대로 ‘가상 개발자’다. 백로그에서 복잡한 작업을 할당받으면 여러 리포지토리를 넘나들며 독립적으로 작업을 완수하고, 검증된 풀 리퀘스트까지 생성한다. 팀의 작업 방식을 학습하면서 코드베이스와 표준에 대한 이해도를 지속적으로 높여나가는 것이 특징이다. 가먼 CEO는 기조연설에서 키로에게 15개 마이크로서비스에서 사용되는 중요한 코드 라이브러리 업데이트를 단일 프롬프트로 지시한 사례를 소개했다.

AWS 시큐리티 에이전트(AWS Security Agent)는 코드 작성 단계에서 보안 문제를 독립적으로 찾아내고 테스트한 뒤 수정 방안을 제안한다. 느리고 수동적인 프로세스였던 침투 테스트를 온디맨드 방식으로 전환시킨 셈이다. AWS 데브옵스 에이전트(AWS DevOps Agent)는 온콜 엔지니어처럼 작동하며, 클라우드워치(CloudWatch), 깃허브(GitHub), 서비스나우(ServiceNow) 등 다양한 도구의 데이터를 분석해 근본 원인을 파악하고 인시던트 대응을 조율한다.

이들 프론티어 에이전트는 아마존 베드록 에이전트코어(Amazon Bedrock AgentCore) 기반으로 구축됐으며, 현재 프리뷰 버전으로 제공된다.

에이전트 구축 플랫폼에 세 가지 핵심 기능 추가

AWS는 에이전트코어의 새로운 기능도 발표했다. 먼저 정책(Policy in AgentCore) 기능은 개발자가 자연어로 에이전트 행동의 경계를 설정할 수 있게 한다. 에이전트코어 게이트웨이(AgentCore Gateway)와 통합되어 각 에이전트의 행동을 실시간으로 검사하고, 정해진 규칙을 위반하는 행동은 즉시 차단한다. 예를 들어 에이전트가 100달러까지는 자동으로 환불을 발행하되, 그 이상의 금액은 반드시 인간의 승인을 받도록 설정할 수 있다.

에이전트코어 메모리(AgentCore Memory)는 에피소딕 기능을 도입해 시간이 지남에 따라 사용자에 대한 정보를 축적하고 이를 미래의 의사결정에 활용할 수 있게 했다. 항공편 예약 시간 선호도나 호텔 취향 같은 정보를 기억해두는 식이다. 에이전트코어 평가(AgentCore Evaluations)는 13개의 사전 구축된 평가 시스템을 제공해 정확성, 안전성, 도구 선택 정확도 등을 기준으로 에이전트 동작을 지속적으로 모니터링할 수 있다.

이미 주요 기업들이 에이전트코어를 활용하며 가시적인 성과를 내고 있다. PGA 투어(PGA TOUR)는 에이전트코어 기반 멀티에이전트 콘텐츠 생성 시스템을 구축해 콘텐츠 작성 속도를 1,000% 향상시키면서 비용은 95% 절감했다. 몽고DB(MongoDB)는 에이전트코어 덕분에 수 주가 걸리던 평가 사이클을 없애고 여러 도구를 단일 프로덕션 솔루션으로 통합했다. 스위스 최대 통신사 스위스콤(Swisscom)은 확장 가능한 호스팅, 시스템 간 원활한 인증, 장기 메모리 기능을 위해 에이전트코어의 다양한 구성요소를 선택적으로 활용하고 있다.

엔비디아 겨냥한 3나노 공정 트레이니엄3 칩 정식 출시

AWS는 3나노 공정으로 제작한 4세대 AI 칩 트레이니엄3를 정식 출시했다. 트레이니엄3 울트라서버(Trn3 UltraServer)는 이전 세대 대비 컴퓨팅 성능은 최대 4.4배, 에너지 효율성은 4배, 메모리 대역폭은 거의 4배 향상됐다.

aws trainium 3 - 와우테일

각 울트라서버는 최대 144개의 트레이니엄3 칩을 탑재해 362 FP8 페타플롭스의 연산 성능을 낸다. 수천 대의 울트라서버를 연결하면 최대 100만 개의 칩을 활용할 수 있는데, 이는 이전 세대보다 10배나 많은 규모다. EC2 울트라클러스터 3.0(EC2 UltraClusters 3.0)을 통해 이러한 대규모 연결이 가능하다.

트레이니엄3 칩 하나는 2.52 페타플롭스의 FP8 연산 성능을 제공하며, 144GB의 HBM3e 메모리와 4.9TB/s의 메모리 대역폭을 갖췄다. 특히 새로 도입한 뉴론스위치-v1(NeuronSwitch-v1) 올투올 패브릭은 트레이니엄2 대비 칩 간 인터커넥트 대역폭을 2배 끌어올려 대형 트랜스포머와 MoE(Mixture-of-Experts) 모델의 데이터 이동 병목현상을 크게 줄였다.

실제 고객사들의 반응도 뜨겁다. 앤쓰로픽(Anthropic), 카라쿠리(Karakuri), 메타게노미(Metagenomi), 네토AI(NetoAI), 리코(Ricoh), 스플래시 뮤직(Splash Music) 등이 트레이니엄으로 학습 및 추론 비용을 최대 50% 절감하고 있다. 리얼타임 생성형 비디오 AI 랩 데카르트(Decart)는 GPU 대비 절반의 비용으로 4배 빠른 추론 속도를 달성했으며, 아마존 베드록은 이미 트레이니엄3에서 프로덕션 워크로드를 운영 중이다.

더 흥미로운 소식은 트레이니엄4 예고다. AWS는 차세대 칩인 트레이니엄4가 엔비디아(Nvidia)의 NVLink 퓨전(NVLink Fusion) 칩 인터커넥트 기술을 지원할 것이라고 밝혔다. 이는 AWS의 저비용 하드웨어와 엔비디아 GPU를 직접 연동할 수 있다는 의미로, 고객에게 하이브리드 시스템 구축의 유연성을 제공한다. 엔비디아의 CUDA 생태계 지배력을 인정하면서도 자체 칩 경쟁력을 높이겠다는 AWS의 양면 전략이 엿보이는 대목이다.

노바2 모델 패밀리와 연 10만 달러 ‘노바 포지’

AWS는 추론 기능이 대폭 강화된 차세대 범용 모델 아마존 노바2(Amazon Nova 2) 패밀리를 공개했다. 노바2 라이트(Nova 2 Lite)는 일상적인 워크로드를 위한 빠르고 비용 효율적인 추론 모델이고, 노바2 프로(Nova 2 Pro, 프리뷰)는 고도로 복잡한 멀티스텝 작업에 특화된 최고 성능 모델이다. 노바2 소닉(Nova 2 Sonic)은 대화형 AI를 위한 음성 간(speech-to-speech) 모델이며, 노바2 옴니(Nova 2 Omni)는 텍스트, 이미지, 비디오, 음성을 모두 처리하고 텍스트와 이미지를 생성하는 멀티모달 모델이다.

노바2 모델들은 단계별 추론과 작업 분해를 지원하는 ‘확장된 사고(extended thinking)’ 기능을 갖췄다. 개발자는 저(low), 중(medium), 고(high) 세 가지 사고 강도 수준 중 하나를 선택해 속도, 지능, 비용의 균형을 조절할 수 있다. 코드 인터프리터, 웹 그라운딩 같은 내장 도구를 제공하며, 100만 토큰 컨텍스트 윈도우를 지원해 더 풍부한 상호작용이 가능하다.

가장 주목할 만한 발표는 노바 포지(Nova Forge) 서비스다. 이는 기업이 노바의 프론티어 역량에 자사의 전문 지식을 깊이 통합한 맞춤형 모델, 즉 ‘노벨라(Novella)’를 구축할 수 있게 하는 ‘오픈 트레이닝’ 서비스다. 고객은 사전 학습, 중간 학습, 사후 학습 단계의 노바 모델 체크포인트에 접근해 자사의 독점 데이터를 노바가 큐레이션한 데이터와 혼합해 학습시킬 수 있다.

기존에 기업들이 자체 데이터를 AI 모델에 통합하려면 파인튜닝으로는 표면적인 커스터마이징에 그치거나, 오픈 웨이트 모델을 원본 학습 데이터 없이 계속 학습시켜 ‘재앙적 망각(catastrophic forgetting)’ 위험에 직면하거나, 수억~수십억 달러를 들여 처음부터 구축해야 했다. 노바 포지는 이 문제를 해결한다.

연간 10만 달러에 제공되는 노바 포지는 시스코(Cisco), 지멘스(Siemens), 부킹닷컴(Booking.com), 레딧(Reddit), 소니(Sony) 등이 초기 고객으로 참여하고 있다. 레딧의 CTO 크리스 슬로우(Chris Slowe)는 “노바 포지를 사용해 여러 전문 모델을 하나의 통합 시스템으로 대체하면서 콘텐츠 모더레이션을 개선하고 있다”고 밝혔다.

맞춤형 노바2 라이트 모델로 구동되는 노바 액트(Nova Act)도 발표됐다. 이는 브라우저 기반 UI 워크플로우를 자동화하는 고신뢰성 AI 에이전트를 구축하고 배포하는 서비스로, 초기 고객 워크플로우에서 90%의 신뢰성을 달성했다. 폼 작성, 검색 및 데이터 추출, 쇼핑 및 예약, QA 테스팅 같은 작업을 자동화한다.

데이터 주권 해결하는 ‘AI 팩토리’

AWS는 기업과 정부가 자사 데이터센터 내에 AWS AI 시스템을 구축할 수 있는 AI 팩토리(AI Factories) 서비스를 발표했다. 데이터 주권(data sovereignty)과 규제 준수가 필수인 조직을 위한 소버린 AI 솔루션이다. 고객이 데이터센터 공간과 전력만 제공하면 AWS가 인프라를 배포하고 관리한다.

aws data center interior - 와우테일

AI 팩토리는 최신 엔비디아 가속 컴퓨팅 플랫폼과 트레이니엄 칩, AWS의 고속 저지연 네트워킹, 고성능 스토리지, 데이터베이스, AI 서비스를 결합한 전용 인프라다. 고객은 엔비디아 GPU를 쓸지 아마존의 트레이니엄3를 쓸지 선택할 수 있다.

이 서비스는 엔비디아와 15년 협력 관계의 연장선상에 있다. AWS 니트로 시스템(Nitro System), 엘라스틱 패브릭 어댑터(Elastic Fabric Adapter) 페타비트 규모 네트워킹, 아마존 EC2 울트라클러스터가 엔비디아 그레이스 블랙웰(Grace Blackwell)과 차세대 베라 루빈(Vera Rubin) 플랫폼을 지원한다.

AI 팩토리는 프라이빗 AWS 리전처럼 작동한다. 데이터의 처리와 저장 위치를 완전히 통제하면서도 아마존 베드록(Amazon Bedrock), 아마존 세이지메이커(Amazon SageMaker) 같은 AWS 관리 서비스에는 접근할 수 있다. 독립적인 AI 인프라 구축에는 GPU 확보, 데이터센터 건설, 전력 인프라 구축에 수년이 걸리고 막대한 비용이 든다. AI 팩토리는 이 과정을 몇 개월로 단축시킨다.

AWS와 엔비디아는 사우디아라비아의 휴메인(Humain)과 협력해 GB300 GPU를 포함한 최대 15만 개의 AI 칩을 갖춘 ‘AI 존’을 구축 중이다. 휴메인의 CEO 타레크 아민(Tareq Amin)은 “AWS가 우리의 AI 존에 구축하는 AI 팩토리는 휴메인과 AWS의 멀티기가와트 여정의 시작”이라며, “이 인프라는 처음부터 가속화되는 로컬 및 글로벌 AI 컴퓨팅 수요를 모두 충족하도록 설계됐다”고 밝혔다.

엔비디아의 하이퍼스케일 및 HPC 부문 부사장 이안 벅(Ian Buck)은 “대규모 AI는 고급 GPU와 네트워킹부터 데이터센터의 모든 계층을 최적화하는 소프트웨어와 서비스까지 풀스택 접근이 필요하다”며, “엔비디아의 최신 그레이스 블랙웰 및 베라 루빈 아키텍처와 AWS의 안전하고 고성능인 인프라 및 AI 소프트웨어 스택을 결합한 AI 팩토리는 조직이 훨씬 짧은 시간에 강력한 AI 역량을 구축할 수 있게 한다”고 설명했다.

리프트는 해결 시간 87% 단축, 어도비는 생성형 AI 학습

AWS는 고객사들의 실제 성과 사례도 공유했다. 차량 공유 서비스 리프트(Lyft)는 앤쓰로픽의 클로드(Claude) 모델을 아마존 베드록을 통해 활용해 운전자와 승객의 질문 및 이슈를 처리하는 AI 에이전트를 만들었다. 리프트는 이를 통해 평균 해결 시간을 87% 단축했고, 올해 운전자의 AI 에이전트 사용률이 70% 증가했다고 발표했다.

어도비(Adobe)의 CEO 샨타누 나라옌(Shantanu Narayen)은 무대에 올라 AWS와의 협력을 발표했다. 어도비 익스프레스(Adobe Express)는 AWS AI 기능을 활용해 대화형 편집을 제공하고, 어도비 아크로뱃 스튜디오(Adobe Acrobat Studio)는 아마존 베드록을 통해 PDF에 개인화된 AI 어시스턴트를 제공한다. 어도비의 상업적으로 안전한 생성형 AI인 어도비 파이어플라이(Adobe Firefly)는 AWS의 고급 EC2 P5 및 P6 인스턴스에서 텍스트-이미지 및 텍스트-비디오 모델을 학습시켜 크리에이터들이 아이디어를 즉시 구현할 수 있게 한다.

에이전트가 핵심이 될 것

AWS re:Invent 2025는 AI가 단순한 어시스턴트를 넘어 자율적으로 작동하는 에이전트로 진화하는 전환점을 명확히 보여줬다. 프론티어 에이전트의 등장, 3나노 공정의 고성능 AI 칩, 기업 전용 AI 인프라, 맞춤형 프론티어 모델 구축 서비스는 모두 기업들이 AI를 실제 비즈니스 워크플로우에 깊이 통합할 수 있는 환경을 만든다.

특히 엔비디아와의 전략적 파트너십 확대는 흥미롭다. AWS는 자체 칩 개발을 밀어붙이면서도 엔비디아의 CUDA 생태계 지배력은 인정하고, 하이브리드 접근을 택했다. 트레이니엄4에 NVLink 퓨전 지원을 예고한 것은 고객에게 비용 효율성과 성능 유연성을 동시에 제공하려는 AWS의 전략을 반영한다.

가먼 CEO는 “고객이 가장 필요로 하는 것을 제공하고 있다. 바로 자사의 데이터를 진정으로 이해하는 프론티어 에이전트와 프론티어 모델”이라며, “AI 에이전트는 기업 AI 변혁의 핵심이 될 것”이라고 강조했다.

AWS re:Invent 2025는 12월 5일까지 계속되며, 에이전틱 AI, 클라우드 인프라, 파운데이션 모델 관련 추가 발표가 예정돼 있다.

기사 공유하기

답글 남기기