Rockchip Executes: “Turn Off the Airflow, Then Turn It Back On”
Rockchip, “바람 먼저 끄고 다시 켜”를 실행하다
중국 에지 AI가 보여준 온디바이스 차량 제어와 로컬 추론의 현재
2026-05-14 / 07월호 지면기사  / 한상민 기자_han@autoelectronics.co.kr


터미널 화면에 실시간으로 올라가는 mcp_vhal-hvac API call 로그.
“바람 먼저 끄고, 10초 뒤 다시 켜”라는 명령 한 문장이 fan_speed level:0 → nanobot 응답 → fan_speed level:2 순서로 실행되는 과정이 보여진다.  


작은 보드 위에서 음성으로 차량 기능 호출이 실제로 실행되는 장면. Rockchip과 함께 AI는 이제 클라우드의 대형모델 경쟁을 넘어, 차 내부에서 반응하고 판단하고 기능을 제어하는 단계로 내려오고 있다. 지연, 밴드위스, 데이터 주권이라는 현실적인 조건은 온디바이스 AI와 로컬 추론의 중요성을 더욱 키우고 있다. Auto China 2026의 Rockchip 부스는 중국 에지 AI가 자동차 안에서 어떤 실행 레이어를 만들고 있는지를 보여준 현장이었다.

글 한상민 기자_han@autoelectronics.co.kr
IN ENGLISH





검은 터미널 화면 위로 로그가 계속 올라가고 있었다.
mcp\_vhal-hvac\_fan\_speed → level: 0mcp\_vhal-hvac\_air\_circulation → inside
“바람 먼저 끄고, 10초 뒤 다시 켜.”라고 말하니, 화면이 바로 다시 움직였다.
fan\_speed level: 2
“에어컨 풍량이 꺼졌습니다. 10초 후 자동으로 2단으로 복구됩니다.”
나노봇(nanobot)이 응답했다.

반응까지 걸린 시간은 100ms 이하. 이 모든 것은 인터넷 없이 차량 내부에서 처리됐다.
이건 Rockchip 부스에서 가장 인상적이었던 장면이었다. 거대한 자율주행 데모카나 화려한 NOA 시각화가 아니라, 이곳 부스 중심에는 작은 AI 보드들과 디스플레이, 그리고 저 검은 터미널 로그 화면이 놓여 있었고, 천장에는 'AI전시구역'이란 문구가 있었다. 
부스 안으로 들어갈수록, 이런 작은 장면들이 지금 중국 자동차 산업 안에서 벌어지고 있는 근본적인 변화를 차례로 설명했다. AI는 클라우드 위에만 머물러 있지 않다. 자동차 안으로 들어오고 있다. 그리고 그것은 단순 음성비서 수준이 아니라, 실제 차량 기능을 제어한다.



Auto China에 온 Rockchip의 이유

Rockchip은 2001년 설립된 중국의 팹리스 반도체 설계 기업이다. 초기에는 디지털 오디오·비디오 칩으로 시작했지만, 지금은 AIoT·자동차 전자·로봇 분야까지 사업 범위를 크게 넓혔다. Hurun Report가 뽑은 ‘2025 중국 AI 기업 50강’ 중 상위 10위 안에 이름을 올리고 있다.
차량 제품 라인에서 Rockchip은 RK3588M, RK3576M, RK3572M 같은 SoC를 전면에 내세운다. 이 칩들은 스마트 콕핏, 인스트루먼트, 엔터테인먼트 스크린, HUD, DLP, 차량 내부 비전 시스템에 최적화돼 있다. RK3588M은 단일 칩으로 최대 7개 화면을 동시에 구동을 지원하고, AVM 기능도 처리할 수 있다.
Rockchip 관계자는 부스 안의 작은 보드를 손으로 가리키며 설명을 시작했다.
“저희는 칩을 만드는 회사고, 중국 내에서는 이 분야 리더 중 하나라고 보시면 됩니다. 특히 AI 칩 쪽을 많이 하고 있습니다.”



RK3576: edge AI의 '스위트스폿'  

Auto China 2026에서 데모의 핵심을 담당한 것은 RK3576 기반 온디바이스 AI였다. 투명 아크릴 케이스 안에 실제 보드와 히트싱크, 연결 포트들이 노출돼 있었고, 옆 디스플레이에는 HVAC 제어 UI가 떠 있었다. RK3576은 Rockchip의 라인업에서 성능과 전력 효율 사이 ‘스윗스폿’으로 자리잡고 있는 칩이다. 4개의 Cortex-A72와 4개의 Cortex-A53으로 구성된 옥타코어 CPU, 6 TOPS의 자체 개발 NPU, ARM Mali-G52 MC3 GPU를 탑재하고 있다. 8K 비디오 코덱 지원과 함께 -40℃에서 105℃까지 산업용 동작 온도를 지원한다. 2024년 7월 출시 이후, 에지 AI·스마트 HMI·멀티미디어 신호 처리 분야에서 빠르게 채택되고 있다.
“이 부분이 AI 칩입니다. 가장 최신 칩이고 TTFT(Time To First Token)랑 TPS(Tokens Per Second) 성능이 꽤 좋습니다. 응답 속도도 빠르고요. TTFT는 100ms 정도 수준입니다.”
TTFT는 최근 생성형 AI와 LLM 시스템에서 점점 중요하게 다뤄지는 지표다. 사용자가 명령을 입력한 뒤 모델이 첫 반응을 출력하기까지 걸리는 시간으로, 결국 AI 인터랙션의 체감 반응성을 결정한다. 특히 차량 내부처럼 실시간 인터랙션이 중요한 환경에서는 더 민감하다.



“바람을 껐다가 10초 뒤 다시 켜라”

가장 인상적이었던 장면은 하드웨어 스펙이 아니었다. 
mcp\_vhal-hvac\_fan\_speed, mcp\_vhal-hvac\_temperature, mcp\_vhal-hvac\_air\_circulation 같은 vehicle function call이 실시간으로 표시됐다. 화면 한쪽에는 ‘나노봇’이란 이름이 보였다. 단순 UI 애니메이션이 아니라, LLM 기반 command orchestration 구조가 실제로 실행되고 있었다.
“예를 들어 명령을 하나 넣어보죠. '바람 먼저 끄고, 10초 뒤 다시 켜' 이런 식입니다.”
관계자가 직접 데모를 보여줬다. 명령하자 화면이 즉시 반응했다. 터미널 로그에는 fan\_speed level: 0 → nanobot 응답 "“에어컨 풍량이 꺼졌습니다. 10초 후 자동으로 2단으로 복구됩니다” → fan\_speed level: 2의 순서가 그대로 펼쳐졌다.
“보이시죠? 반응 속도가 100ms 이하입니다. 상당히 빠릅니다.”
자연어 명령이 vehicle function API와 직접 연결됐다. 실제로 터미널 로그를 자세히 보면, 나노봇이 ‘주온도 18도 설정, 부온도 25도 설정, 에어 방향 얼굴 쪽, 시트 히팅 2단계, 내부 공기 순환’ 같은 복수의 HVAC 파라미터를 순차적으로 API call로 분해해 실행하는 게 선명하게 드러났다. AI가 단순히 대화하는 것이 아니라, 실제 차량 기능을 호출하고 실행한다.
입력 방식도 유연했다.
“타이핑도 되고, 음성 ASR도 됩니다. 다 가능합니다.”
그리고 관계자는 이 데모의 핵심을 짧게 요약했다.
“이건 전부 내부에서 처리됩니다. 인터넷 없어도 됩니다.”



‘용호 AI Assistant’ 데모 스테이션. RK3576M+RK1828 보드가 전시돼 있고, 좌측 제품 카드에는 구어체 명령 이해, 상태 기억, 다단계 지시 실행 등 주요 기능이 명시돼 있다. 



‘용호 AI Assistant’: MCP 기반 차량 AI agent 구조

부스 데모의 이름은 ‘용호 AI Assistant’. 제품 카드에 따르면, 이 데모는 RK3576M + RK1828 칩 조합 위에서 실행된다. 모델은 Qwen3-4B 기반이다.
흥미로웠던 것은 단순 음성인식이 아니었다. 제품 카드에는 구어체 명령 이해, 복잡한 다단계 지시 실행, 사용자 선호 기억, 차량 제어 도구 호출 같은 기능들이 함께 적혀 있었다. “자리가 없어”, “앞이 안 보여” 같은 일상 표현까지 이해한다고 설명했다.
구조적으로 보면, 이 시스템은 차량 VHAL(Vehicle Hardware Abstraction Layer)과 MCP(Model Context Protocol) 방식으로 연결된 에이전트가 LLM의 자연어 추론을 통해 차량 기능 API를 직접 호출하는 형태다. 과거 차량 음성제어가 정해진 키워드 인식 중심이었다면, 지금은 LLM 기반 컨텍스트 인터랙션 구조로 이동하고 있다.



Omni 멀티모달 인지형 차량 제어 데모 스테이션. RK3576M+RK1828 보드에 카메라가 연결돼 있고, 우측 패널에는 음성으로 제어 가능한 명령어 목록이 나열돼 있다. 공조 온·오프부터 좌석 히팅·제상·공기 순환까지 실제 차량 제어 시나리오를 상정하고 있다.  



Omni 멀티모달 인지형 차량 제어: 비전이 더해지다

같은 부스 안 다른 스테이션에서는 카메라가 연결된 별도 데모가 실행되고 있었다. 이름은 ‘Omni 멀티모달 인지형 차량 제어’. 이 데모 역시 RK3576M + RK1828 조합 위에서 구동됐으며, Qwen3-Omni-4B 기반 멀티모달 모델이 적용돼 있었다.
핵심은 차량 제어와 비전 인식이 하나로 연결된다는 점이었다. 공조 온·오프, 온도 조절, 풍량, 풍향, 좌석 히팅, 제상, 내·외기 순환 같은 기능들이 음성 명령과 연결돼 있었고, 동시에 카메라는 사람을 인식해 실시간 설명 텍스트를 생성했다. 이미지 입력과 텍스트 생성, 차량 인터랙션이 모두 하나의 에지 디바이스 위에서 실행되고 있었다.
옆 스크린에서는 또 다른 AI Box 데모가 진행 중이었다. RK3576M + RK1828 위에서 Qwen2.5-VL-7B, Qwen3-VL-4B 모델이 실행됐고, 카메라 앞 사람의 움직임을 인식해 “무위협 이벤트: 사람이 차량에 접근했지만 차체에 닿지 않음” 같은 설명 문장을 실시간으로 생성했다.
“카메라가 사람을 인식하고, 결과가 바로 여기 반영됩니다. 전부 온디바이스입니다.”
관계자가 카메라 화면을 가리키며 말했다.



AI Box 데모 화면. 카메라가 인물을 인식하고 ‘이벤트: 사람이 차량에 접근했지만 차체에 닿지 않음’이란 텍스트를 실시간으로 생성하고 있다. Qwen 기반 Vision-Language 모델이 RK3576M+RK1828 edge AI 보드 위에서 로컬 실행된 결과다.    



차가 엔드포인트가 되는 방향

부스를 둘러보고 나면 Rockchip은 이제 단순 차량용 MCU 회사가 아니다. 부스 안에는 ‘7대 제품 라인, 차량 탑재 제품 가치 업그레이드’란 슬로건과 함께 AI, 차량용 비전, 지능형 콕핏이 나란히 배치돼 있었다. 자동차와 consumer AI 사이의 경계가 흐려지고 있었다.
왜 굳이 차 내부에서 AI를 실행하려 할까. 당연히 이유는 지연이 첫 번째다. 차량 내부 인터랙션은 수백 ms 수준의 지연에도 민감하다. TTFT 100ms 수준의 응답은 실제 인터랙션 경험을 크게 바꾼다. 둘째는 밴드위스 문제다. 멀티모달 AI와 차량 센서 데이터 전체를 지속적으로 클라우드로 보내는 것은 현실적 부담이 크다. 셋째는 프라이버시와 규제다. 자동차 산업에서 데이터 주권과 로컬 처리 요구는 갈수록 강해지고 있다. 결국 많은 기능이 차량 내부에서 직접 실행될 가능성이 높다. 그래서 에지 AI 경쟁은 단순히 TOPS 숫자 경쟁이 아니라, 지연, 발열, 전력효율, 로컬 추론, 멀티모달 프로세싱 전체를 동시에 해결해야하는 문제다.



AI가 오는 자리

최근 몇 년 동안 생성형 AI 산업은 대부분 클라우드 AI 경쟁이었다. 거대한 데이터센터와 GPU 클러스터 위에서 모델이 학습됐다. 그러나 실제 산업 적용 단계로 오면 이야기는 달라질 수 있다. Rockchip을 비롯해 많은 중국의 기술기업들이 Auto China 2026에서 보여준 것이 그것으로, 특히 Rockchip은 이런 흐름의 가장 아래쪽 레이어, 실제 디바이스 에지에서 실행되는 AI를 보여줬다. 
자동차는 그 가장 중요한 실행 공간 중 하나다. AI는 더 이상 데이터센터 안에만 머물러 있지 않다. 그것은 이미 차량 내부의 기능 호출과 HVAC 제어 로그 위로 왔다.




Auto China 2026 Rockchip 부스. 흰색 데모카 앞으로 AI 전시 · 차량용 비전 · 지능형 콕핏 구역이 나란히 펼쳐진다.   

AEM(오토모티브일렉트로닉스매거진)



<저작권자 © AEM. 무단전재 및 재배포 금지>


  • 100자평 쓰기
  • 로그인



TOP