728x90
728x90

□ LLM 이후의 AI, 에이전트와 운영체제(OS) 경쟁
지난 1년간 AI 산업의 화두는 점차 변화하고 있음
이제 핵심 경쟁은 “얼마나 자연스럽게 답변하느냐”보다,
“얼마나 스스로 목표를 이해하고 과업을 완결하느냐”로 이동하는 흐름임
데미스 허사비스는 이를 Agentic AI라는 개념으로 설명함
목표 이해, 계획 수립, 실행, 결과 검증이 하나의 순환 구조로 작동하는 AI를 의미함
이 변화의 본질은 기능 향상이 아니라 역할 변화임
AI는 질문에 반응하는 도구에서, 작업을 분해하고 순서를 정하며 자원을 배분하는 주체로 이동 중임
이는 챗봇 경쟁이 아니라 향후 디지털 업무 흐름 전체를 누가 관리하느냐의 문제로 확장되고 있음
이 관점에서 Gemini 3는 단순한 성능 개선 모델이라기보다
AI가 개별 기능을 넘어 플랫폼의 핵심 계층, 즉 운영체제(OS) 로 확장되는 방향을 보여주는 사례임
이미지 생성 모델 Nano Banana Pro 역시 같은 흐름에 위치함
단순 생성이 아니라 이미지 내 객체와 구조를 정밀하게 처리하고 텍스트 렌더링과 편집 정확도를 강화한 모델로 소개됨
이미지 영역에서도 ‘정밀 제어’와 ‘이해 기반 생성’이 중요해지고 있음을 보여줌
□ AlphaFold 이후, AI가 겨냥하는 ‘Root Node 문제’
허사비스의 문제의식은 일관됨
AI는 단기 생산성을 높이는 도구가 아니라, 파급 효과가 가장 큰 근본 문제(Root Node) 를 풀어야 한다는 판단임
AlphaFold는 이 접근이 실제 성과로 이어질 수 있음을 증명함
단백질 구조 예측 문제를 해결하면서 신약 개발의 시간과 비용 구조 자체를 변화시킴
이후 DeepMind가 집중하는 영역들은 공통된 특징을 가짐
모두 산업과 국가 단위에서 비용 곡선을 이동시키는 분야임
재료 과학에서는 차세대 배터리 소재와 신물질 탐색을 진행 중이며, AI로 방대한 조합 공간을 압축 탐색해 실험 효율을 높이려는 접근임
핵융합 분야에서는 Commonwealth Fusion Systems와 협력해 토카막 반응로의 플라즈마 제어와 자기장 안정화 문제에 AI를 적용 중임
이는 핵융합 상용화를 가로막아온 제어 난제를 줄이기 위한 시도임
양자컴퓨팅 분야에서는 Google Quantum AI 팀과 협력해 오류 수정 코드 개발에 머신러닝을 활용하고 있음
이러한 전략은 단기 수익보다 한 번 해결되면 수십 년간 산업 구조를 바꾸는 문제에 베팅하는 선택임
DeepMind가 여전히 연구 조직의 성격을 유지하는 이유도 여기에 있음
□ 스케일링의 끝은 없다, 그러나 50:50이 필요하다
최근 AI 업계에서는 데이터 고갈이나 스케일링 한계를 우려하는 시각도 존재함
이에 대해 허사비스는 절대적인 벽이 존재한다고 보지는 않지만 단순 확장만으로는 효율이 점차 낮아질 수 있다고 설명함
그래서 강조되는 것이 스케일링과 아키텍처 혁신의 병행임
컴퓨팅·데이터 확장과 함께 모델 구조와 학습 방식의 변화가 동시에 필요하다는 판단임
이 지점에서 구글·DeepMind의 전략적 위치가 드러남
TPU 기반 자체 인프라, 합성 데이터 활용, 시뮬레이션 기반 학습은 인간 데이터 의존도를 점진적으로 낮추는 방향으로 설계돼 있음
특히 수학·코딩처럼 정답 검증이 가능한 영역에서는 AI가 스스로 문제를 생성하고 해결하는 합성 데이터 학습이 가능함
이는 단순히 자본력이 큰 기업만 유리하다는 의미는 아님
스케일링 효율이 낮아질수록 데이터 생성 방식과 모델 구조 설계가 성능 격차를 만드는 핵심 요소로 작용할 가능성이 커짐
□ 들쭉날쭉한 지능과 월드 모델, AGI의 마지막 관문
허사비스가 지적한 현재 AI의 핵심 한계는
특정 영역에서는 매우 뛰어나지만, 다른 영역에서는 일관성이 떨어지는 현상임
이는 성능의 문제가 아니라 지능 구조의 문제로 해석됨
AI는 복잡한 문제를 해결하면서도, 상대적으로 단순한 판단에서 오류를 보이기도 함
따라서 AGI의 기준은 최고 성능이 아니라 모든 영역에서의 안정적인 일관성 확보에 있음
이를 위해 사고·계획·검증 단계를 명시적으로 포함한 구조가 필요함
즉각적인 답변보다 내부적으로 판단을 점검하는 과정이 중요해짐
이와 함께 강조되는 개념이 월드 모델(World Model) 임
언어 데이터만으로는 물리 법칙이나 공간적 인과관계를 충분히 학습하기 어렵기 때문임
DeepMind의 Genie, Veo는 물리적 상호작용과 환경 변화를 시뮬레이션하는 방향성을 보여줌
SIMA 프로젝트는 이러한 가상 환경 안에 에이전트를 투입해 지시 수행과 상호작용을 실험하는 구조임
이 단계는 성능 경쟁이 아니라 AI가 현실 세계를 얼마나 안정적으로 예측하고 대응할 수 있는지의 문제로 이어짐
결국 AGI의 완성도는 모델 크기보다 세계를 이해하는 방식에서 갈릴 가능성이 큼
□ 마무리하며
이번 대담에서 드러난 데미스 허사비스의 시선은 명확함
AGI는 더 큰 모델을 더 빨리 만드는 문제가 아니라, AI가 현실 세계를 얼마나 안정적으로 이해하고 스스로 판단할 수 있는지의 문제라는 인식임
에이전트 AI, Root Node 문제, 스케일링과 아키텍처 혁신, 월드 모델은 각각 다른 주제가 아니라 하나의 방향을 가리킴
즉, 빠르게 반응하는 AI가 아니라 느리더라도 계획하고 검증하며 세계를 이해하는 AI로의 전환임
DeepMind는 단기 유행이나 버블 논쟁과 무관하게 이 방향에 맞춰 인프라, 연구, 상용화를 동시에 쌓아가고 있음
이번 대담은 기술 로드맵을 넘어 DeepMind가 어떤 기준으로 AGI를 정의하고 있는지를 보여준 자리였음
728x90
728x90
'생각 정리' 카테고리의 다른 글
| 샘 올트먼 인터뷰, AGI는 이미 지나갔다: 코드 레드부터 초지능까지, AI 경쟁의 본질 (0) | 2025.12.20 |
|---|---|
| 노무라, AI 거품은 아니었다: 연말 수급이 만든 조정과 2026년 금리 인하 전망 (0) | 2025.12.20 |
| 골드만삭스, AI CapEx 과잉론 반박: 하이퍼스케일러들 7,000억 달러 더 쓸 수 있다 (0) | 2025.12.18 |
| BofA가 말한 ‘Run-it-hot’ 시장, 주식·원자재 비중이 위험 신호인 이유 (1) | 2025.12.17 |
| 엔비디아 GPU vs 구글 TPU, AI 패권은 ‘모델’이 아니라 ‘비용 구조’에서 갈린다 ㅡ Gavin Baker (0) | 2025.12.15 |
댓글