
CES 2026: AI, 화면을 나와 일상이 되다 | Ambient AI 트렌드 리포트
작성일 : 이소현 January 7, 2026
Innovators Show up
CES 2026: Ambient AI
IT 산업의 한 해를 여는 가장 상징적인 행사, CES 2026이 현재 미국 라스베이거스에서 진행 중입니다.
CES는 매년 새로운 기술을 소개하는 전시를 넘어, 앞으로 IT 산업이 어디로 향하는지를 가장 먼저 보여주는 무대로 주목받아 왔습니다.
올해 CES 역시 예외는 아닙니다. 158개국 이상에서 약 14만 명이 참여한 CES 2026에서 가장 분명하게 드러난 키워드는 단연 AI입니다.
AI가 CES의 중심 주제로 자리 잡은 지도 어느덧 3년째에 접어들었습니다.
AI 이야기가 반복되어 지겹다고 느낄 수 있지만, CES 2026은 분명한 변화를 보여주고 있습니다.
AI는 더 이상 개별 기기에 ‘추가되는 기능’이 아니라, 생활과 업무 전반에 자연스럽게 스며드는 환경(Ambient AI)으로 진화하고 있습니다.

2025년까지의 AI가 스마트폰·가전·자동차 등 제품 단위의 지능이었다면,
2026년의 AI는 제품을 넘어 공간과 시스템을 하나의 지능형 네트워크로 연결하는 단계로 확장되고 있습니다.
이번 CES는 AI가 ‘무엇을 할 수 있는가’를 넘어,
‘어떻게 우리 주변을 구성하는 기본 환경이 되는가’를 보여주는 전환점이라 할 수 있습니다.
리사 수 키노트: AI Everywhere, for Everyone
CES 2026의 서막은 AMD CEO 리사 수(Lisa Su)의 기조연설로 시작됐습니다.
그녀는 무대에서 AI가 이제 모든 산업과 디바이스에 스며들어야 하는 ‘기본 인프라’가 되어야 한다는 비전을 분명히 했습니다.
리사 수는 연설에서 “AI는 모든 곳에 존재할 것이며(AI Everywhere), 모든 사람을 위한 기술이어야 한다(AI for Everyone)”는 메시지를 여러 번 강조했습니다.
이를 통해 AI가 이제 특정 기업이나 연구실의 전유물이 아니라, 범용 기술로 산업 전반에 확산되고 있음을 선언한 것입니다.

사진 출처: Caroline Brehman / AFP via Getty Images
AI 확산을 위한 인프라 전략
이에 따라 AI는 단순한 성능 경쟁이 아닌, AI 확산을 위한 컴퓨팅 인프라 확장 전략을 보여줬습니다.
2020년대 초반의 AI 워크로드는 ‘제타(Zetta)’급 컴퓨팅으로 대표되었지만, 미래에는 ‘요타(Yotta)’급 컴퓨팅 수요가 등장할 것이라고 언급하면서, AI가 처리해야 할 연산량이 지금의 수천 배에 이를 것이라고 전망했습니다.
이를 뒷받침하는 제품/전략 발표도 잇따랐습니다:
-- Instinct MI440X·MI455X 등 엔터프라이즈·데이터센터용 AI 프로세서
-- Ryzen AI 400/PRO 400 시리즈로 AI PC·엣지 AI 대응 강화
-- Helios 랙 기반 AI 플랫폼으로 초대규모 AI 워크로드 대비
이 모든 발표는 AI의 ‘범용성’과 ‘확산’이 곧 산업의 기본 전제가 되어야 한다는 AMD의 전략을 명확히 보여줍니다.
NVIDIA의 비전: Physical AI와 Rubin AI 플랫폼
작년에 이어 이번 CES에서도 NVIDIA의 젠슨 황 CEO는 ‘AI가 물리 세계에서 스스로 판단·행동하는 단계’로 진입했다는 전략적 비전을 발표했습니다.
NVIDIA가 이번 행사에서 제시한 핵심 키워드는 바로 “Physical AI” — AI가 현실 세계에서 직접 작용하는 능력을 의미합니다.
Vera Rubin - 차세대 AI 컴퓨팅 플랫폼

사진 출처: Patrick T. Fallon / AFP via Getty Images
이번 CES에서 공개한 Vera Rubin 플랫폼은 Vera CPU, Rubin GPU, NVLink 6 스위치, ConnectX-9 SuperNIC, BlueField-4 DPU, Spectrum-6 스위치 등 6개의 최신 칩으로 구성된 통합 AI 슈퍼컴퓨팅 아키텍처입니다. 이를 통해 기존 대비 AI 훈련·추론 효율을 크게 높이고, 대규모 생성형/추론 워크로드를 원활히 처리할 수 있도록 설계되었습니다.
Vera Rubin은 미국의 여성 천체물리학자 '베라 루빈(Vera Rubin)'에서 유래했습니다.
베라 루빈은 은하 회전 곡선을 관측해 ‘암흑물질의 존재’를 증명한 세계적인 과학자로, 우리가 보지 못하는 물질이 우주의 구조를 결정한다는 사실을 밝힌 인물인데요.
젠슨 황은 이 이름을 단순한 상징이 아니라 NVIDIA가 추구하는 AI 비전의 핵심과 연결시켰습니다.
보이지 않는 암흑물질처럼 AI 워크로드의 복잡성과 연산의 깊이는 눈에 보이지 않지만, 그 계산을 통해 새로운 의미를 찾아내는 것이야말로 현재 AI 인프라가 해결해야 할 본질적인 과제입니다.
이런 맥락에서
---> “보이지 않는 것을 찾아 세상의 이해를 바꾼 과학자의 정신이, 지금 AI가 해야 할 일과 정확히 맞닿아 있다”는 철학이 Vera Rubin 이름 선택에 담겨 있다고 볼 수 있습니다
젠슨 황은 또한 기초과학의 중요성을 강조하며, “단순히 빠른 칩을 만드는 것이 아니라, AI라는 새로운 우주를 탐험하는 근본적인 도구를 만들고 있다”는 메시지를 전하며, NVIDIA가 AI 컴퓨팅의 패러다임 자체를 재정의하는 방향으로 나아가고 있음을 분명히 했습니다.
Physical AI의 시작: Alpamayo
젠슨 황은 CES 2026에서 AI가 디지털 영역을 넘어 물리적 세계에서 스스로 판단·행동할 수 있는 ‘Physical AI’ 시대가 시작됐음을 선언했습니다.

이미지 출처: https://developer.nvidia.com/blog/building-autonomous-vehicles-that-reason-with-nvidia-alpamayo/
Alpamayo는 자동차가 단순히 사물을 인식해 조향·제동·가속을 제어하는 것을 넘어, 자신이 어떤 행동을 할지 ‘추론하고 설명’할 수 있는 능력'을 갖춘 모델입니다.
이는 전통적인 자율주행 시스템과 달리, 입력부터 행동까지를 하나의 통합된 구조(End-to-End)로 학습함으로써 가능한데요.
대표적으로, AI가 왜 그런 판단을 했는지 이유와 궤적까지 생성하도록 설계되어 있습니다.
이러한 설계는 다음과 같은 요소로 이루어졌습니다:
단계적 사고와 추론 기반 모델: 인간처럼 *사고 과정(chain-of-thought)*으로 주변 상황을 이해하고 판단합니다.
Vision-Language-Action(VLA) 모델: 시각 입력을 바탕으로 인식 → 추론 → 행동 계획을 연결하는 구조입니다.
데이터 통합 학습: 실차 주행 데이터 + 합성 시뮬레이션 데이터가 결합돼 현실 세계의 드문(edge-case) 상황까지 대응할 수 있습니다.
CES2026 Highlights
무대 밖에서 만나는 Ambient AI: 우리가 주목해야 할 Top 3
인프라와 모델의 진화는 결국 우리 눈앞의 실체로 증명됩니다.
이번 CES 2026 전시관에서 가장 뜨거운 관심을 받으며 'AI의 현실화'를 보여준 세 가지 혁신 사례를 꼽아보았습니다.

1. LEGO 의 CES 데뷔 - LEGO Smart Bricks
이번 행사에서 가장 주목받았던 레고! 살면서 한 번쯤은 가지고 놀았던 장난감 기업인 레고의 이번 혁신은 단순히 '조립하는 장난감'을 넘어, 물리적인 브릭에 디지털 생명력을 불어넣었다는 점에 의미가 있습니다. 스마트 브릭(Smart Brick)은 내부에 전용 ASIC 칩과 가속도계, 광센서 등을 탑재하여 별도의 스크린이나 AI 없이도 사용자의 움직임에 반응합니다. 예를 들어, 스타워즈 시리즈의 스마트 미니피겨를 브릭 근처에 두면 캐릭터의 성격에 맞는 대사가 나오거나 광선검 소리가 재생되며, 비행기 기체를 흔들면 엔진 소리가 실시간으로 변하는 식입니다. 장난감이 주는 기술의 변화, 이번 사례는 꼭 여기를 눌러 자세히 알아보세요.
이미지 출처: LEGO
2. 휴머노이드의 차별화 - 현대차·보스턴다이내믹스 '아틀라스'
실험실에서의 영상으로만 보았던 아틀라스가 무대로 나왔습니다. 모든 관절이 180도 이상 자유자재로 회전하며, 촉각 센서가 달린 손을 통해 최대 50kg의 무거운 물체를 정교하게 옮길 수 있는 능력을 갖췄습니다. 특히 이번 전시에서는 구글 딥마인드의 '제미나이 로보틱스'와 결합해, 사람이 일일이 코딩하지 않아도 스스로 작업을 학습하고 배터리 교체 시점을 판단해 충전소로 이동하는 자율성을 보여주었습니다. 영하 20도부터 영상 40도까지 견디는 강력한 내구성은 이 로봇이 곧 우리 주변의 다양한 환경에서 활약하게 될 것임을 예고합니다.
3. 집안일 해주는 로봇 - LG 클로이드(CLOiD)
집안일 대신 해주는 로봇, 저만 상상해본것 아니죠? LG전자가 공개한 LG 클로이드(CLOiD)는 '제로 레이버 홈(Zero Labor Home)'이라는 비전을 현실로 옮겨 놓았습니다. 단순히 가전을 제어하는 허브 역할을 넘어, 두 팔과 다섯 손가락을 이용해 냉장고에서 식재료를 꺼내고, 다 구워진 크루아상을 오븐에서 꺼내며, 세탁이 끝난 수건을 정교하게 개키는 모습은 관람객들에게 큰 충격을 주었습니다. 시각 언어 모델(VLM) 기술이 적용되어 "바닥에 양말이 떨어져 있네?"와 같은 상황을 스스로 인식하고 "세탁기에 넣어야겠다"는 구체적인 행동 계획을 세워 실행합니다. 이는 로봇이 단순한 도구를 넘어 사용자의 생활 패턴을 이해하고 돕는 진정한 '공감지능(Affectionate Intelligence)' 동반자로 진화했음을 보여줍니다.
이미지 출처: https://www.dailian.co.kr/news/view/1595016
AI, 도구를 넘어 환경이 되다
CES 2026이 보여준 미래는 명확합니다.
AI는 이제 우리가 필요할 때 꺼내 쓰는 '도구'의 단계를 지나, 공기처럼 어디에나 존재하며 스스로 사고하고 움직이는 '환경(Ambient)' 그 자체가 되었습니다. AMD가 구축한 거대 인프라 위에서 NVIDIA의 인공지능이 추론하고, 그 결과가 레고 브릭이나 LG 클로이드와 같은 물리적 실체로 발현되는 거대한 생태계가 완성된 것입니다.
이제 기업과 개인에게 중요한 것은 'AI를 도입하느냐'가 아니라, '이 지능형 환경 속에서 어떤 새로운 가치를 창출할 것인가'입니다. 보이지 않는 곳에서 우주의 질서를 잡는 암흑물질처럼, AI는 우리 비즈니스와 일상의 기반이 되어 전례 없는 변화를 이끌어갈 것으로 보이네요. 감사합니다!
참고 자료
https://apnews.com/article/ces-nvidia-amd-lego-uber-a3e6e4e582ff83a4aa331d1791140369
https://www.hellodd.com/news/articleView.html?idxno=110451
https://www.dailian.co.kr/news/view/1595016
https://zdnet.co.kr/view/?no=20260106081420
https://developer.nvidia.com/blog/building-autonomous-vehicles-that-reason-with-nvidia-alpamayo/
https://www.pwc.com/kr/ko/insights/samil-insight/samilpwc_ces2026.pdf
