허사비스가 말하는 “아직 AGI가 아닌 이유” — 남은 퍼즐 조각 4가지


노벨상 수상자이자 구글 딥마인드 CEO 데미스 허사비스(Demis Hassabis)가 와이콤비네이터(Y Combinator) 대표 개리 탄(Garry Tan)과 마주 앉았다. 4월 29일 진행된 이 대담에는 AGI의 현주소, 딥마인드의 기술 전략, 그리고 AI 시대 창업자에게 던지는 직언이 담겼다. 와우테일이 주목할 내용을 골라 3편의 연속 기사로 정리한다. (대담 원본 영상)

이 시리즈의 다른 기사:

Hassabis YC interview 1 - 와우테일

노벨 화학상 수상자가 무대 위에서 선을 그었다. “아직 그 단계에 이르지 못했습니다.”

구글 딥마인드(Google DeepMind) CEO 데미스 허사비스(Demis Hassabis)가 4월 29일 와이콤비네이터(Y Combinator) 행사에서 한 말이다. 수백억 달러가 AI에 쏟아지는 시대에, 이 분야를 누구보다 오래 연구해온 사람이 내린 냉정한 자기 진단이었다.

그가 말한 “그 단계”란 AGI, 즉 범용 인공지능(Artificial General Intelligence)이다.

AGI란 무엇인가

챗GPT에 질문을 던지면 막힘없이 답한다. 이미지를 설명하고, 코드를 짜고, 외국어를 번역한다. 그렇다면 우리는 이미 인간 수준의 AI를 가진 것일까.

허사비스의 답은 “아니다”다.

지금의 AI는 특정 작업을 잘한다. 하지만 인간은 단순히 특정 작업을 잘하는 존재가 아니다. 처음 보는 상황에서도 판단하고, 어제 배운 것을 오늘 전혀 다른 맥락에 적용하며, 스스로 목표를 세우고 장기적인 계획을 실행한다. AGI란 이런 인간의 지적 능력 전반을 갖춘 AI를 말한다. 특정 과목만 잘하는 학생이 아니라, 어떤 문제가 주어져도 스스로 생각하고 해결하는 존재다.

허사비스는 청소년 시절부터 이 목표를 품었다. 체스 신동 출신으로 17세에 베스트셀러 비디오 게임 ‘테마파크(Theme Park)’를 설계했고, 이후 인지신경과학 박사를 취득했다. 2010년 딥마인드(DeepMind)를 공동 창업할 때 내건 미션도 단 하나였다. “지능 문제를 풀겠다.” 알파고(AlphaGo)가 이세돌 9단을 꺾었고, 알파폴드(AlphaFold)가 단백질 구조 예측 50년 난제를 해결해 노벨상으로 이어졌다. 지금 그는 구글 딥마인드에서 제미나이(Gemini) 모델을 이끌며 그 목표를 향해 달려가고 있다.

그 사람이 “아직”이라고 했다.

50대 50의 도박

오해를 피해두자. 허사비스는 지금의 AI 기술이 AGI 설계의 일부가 될 것이라는 점엔 확신한다. 대규모 사전학습, RLHF(인간 피드백 강화학습), 체인오브쏘트(Chain-of-Thought) 추론 — 이것들이 쓸모없는 기술이 될 가능성은 없다고 봤다.

문제는 이것만으로는 부족할 수 있다는 것이다.

그는 AGI에 도달하기 위해 1~2개의 핵심 기술 돌파가 아직 필요할 확률을 50%로 봤다. 점진적으로 지금 기술을 스케일업하면 될 수도 있고, 누군가 완전히 새로운 발상을 해야 할 수도 있다는 것이다. 딥마인드는 이 두 시나리오를 동시에 연구 중이다.

그렇다면 구체적으로 무엇이 빠져 있는가. 허사비스는 4가지를 꼽았다.

첫 번째 구멍: 배움을 멈추는 AI

인간은 매 순간 배운다. 오늘 겪은 일이 내일의 판단에 반영된다. 그런데 지금의 AI는 다르다. 대규모 학습이 끝나는 순간 그 상태에 고정된다. 수개월에 한 번 새 훈련이 진행될 때만 업데이트가 일어난다. 현장에서 새로운 상황을 마주해도 스스로 적응하지 못한다.

허사비스는 이 문제를 수면에 비유했다. 그의 박사 연구 주제가 바로 이것이었다. 뇌는 잠을 자는 동안, 특히 꿈을 꾸는 렘(REM) 수면 단계에서 하루 동안 겪은 경험을 재생하며 중요한 기억을 오래된 지식 체계에 자연스럽게 녹여낸다. 어제 배운 것이 잠을 자는 사이 장기 기억이 되는 것이다.

딥마인드가 2013년 아타리(Atari) 게임을 정복한 DQN 알고리즘에는 ‘경험 재플레이(experience replay)’라는 기법이 있었다. 성공한 경험을 반복해서 재생해 학습하는 방식으로, 뇌의 기억 통합 원리를 빌려온 것이었다. 그러나 허사비스는 “지금도 우리는 테이프로 기워가며 컨텍스트 창에 모든 것을 쑤셔 넣고 있다”고 표현했다. 근본적인 해법은 아직 나오지 않았다는 뜻이다.

이게 해결되지 않으면 에이전트는 진정한 자율성을 가질 수 없다. ‘파이어 앤 포겟(fire-and-forget)’, 즉 한번 지시하고 완전히 맡겨두는 AI — 그건 아직 먼 이야기다.

두 번째 구멍: 무엇을 기억할지 모르는 AI

AI에게는 ‘컨텍스트 창(context window)’이 있다. 한 번의 대화에서 기억할 수 있는 정보의 양이다. 요즘 최신 AI는 수백만 개의 토큰(단어 단위)을 담을 수 있다.

인간의 작업기억 용량은 평균 7개 항목에 불과하다. AI는 그것보다 수십만 배 큰 기억 공간을 가진 셈이다. 그런데 왜 AI의 기억은 여전히 문제인가.

허사비스는 이렇게 설명했다. “중요하지 않은 정보, 심지어 틀린 정보까지 전부 집어넣고 있기 때문입니다. 지금 방식은 꽤 조악합니다.”

크기만 크다고 해결되는 게 아니다. 1000만 토큰짜리 컨텍스트 창도 실시간 영상을 처리하면 약 20분 분량에 불과하다. 한 사용자의 지난 한두 달 삶을 이해하는 AI를 만들려면, 무엇이 중요하고 무엇을 잊어도 되는지를 스스로 판단하는 능력이 있어야 한다. 그게 없다. 인간이 자는 동안 뇌가 자동으로 중요한 기억만 추려 정리하듯이, AI도 그런 지능적인 메모리 모듈이 필요하다는 것이다.

세 번째 구멍: 틀렸다는 걸 알면서도 틀리는 AI

허사비스는 제미나이(Gemini)로 체스를 자주 둔다고 했다. 체스는 규칙이 명확하고 논리가 검증 가능한 영역이라, AI의 추론 과정을 관찰하기에 좋은 도구라는 설명이다.

그가 발견한 현상이 있다. AI가 어떤 수를 두려다가 “이건 나쁜 수”라고 스스로 판단한다. 그러다 더 나은 수를 찾지 못하면, 결국 나쁘다고 판단했던 그 수를 둔다. 틀렸다는 걸 알면서도 그걸 하는 것이다.

이것이 왜 문제인가. 정밀한 추론을 해야 하는 시스템이라면, 틀린 길에 들어섰을 때 멈추거나 방향을 바꿔야 한다. 그런데 지금의 AI는 자신의 사고 과정을 옆에서 지켜보며 개입하는 능력, 즉 ‘내성(introspection)’이 부족하다. 생각이 잘못된 방향으로 달려가도 스스로 브레이크를 밟지 못한다.

네 번째 구멍: 들쭉날쭉한 지능

가장 기이한 현상이다. 지금의 AI는 국제 수학 올림피아드 금메달 수준의 문제를 풀어낸다. 그러나 같은 수학 문제를 살짝 다른 방식으로 제시하면 초등학교 수준에서 오류를 낸다.

허사비스는 이것을 ‘들쭉날쭉한 지능(jagged intelligence)’이라고 불렀다. 어떤 영역에서는 인간 최고 수준을 넘어서지만, 맥락이 조금만 바뀌면 기초적인 실수를 저지른다. 진정한 AGI라면 이런 불균형이 없어야 한다. 어떤 상황에서도 믿을 수 있는 일관성이 AGI의 필수 조건이다.

2030년, 에이전트 시대의 입구

허사비스는 이 4가지 과제가 2030년경 해결 가능한 궤도에 있다고 봤다. AGI 이전에도 변화는 이미 시작됐다. 그는 지금을 ‘에이전트 시대(Agentic Era)’의 시작이라고 정의했다. AI가 단순히 질문에 답하는 수준을 넘어, 스스로 목표를 설정하고 여러 단계의 작업을 자율적으로 수행하는 방향으로 빠르게 진화하고 있다는 것이다.

아직 갈 길은 멀다. 그러나 노벨상 수상자의 “아직”은 패배 선언이 아니었다. 무엇이 남았는지를 정확히 알고 있는 사람의, 냉정하고 구체적인 진단이었다.

YouTube 동영상

기사 공유하기

답글 남기기