RTX 5060·썬더볼트4로 LLM 구동 성공… '책상 위 AI 서버' 시대 열리나
AI 스타트업 타이니코프, 독자 드라이버로 애플 폐쇄 생태계 우회… eGPU 전용 보드 2분기 출시 예고
AI 스타트업 타이니코프, 독자 드라이버로 애플 폐쇄 생태계 우회… eGPU 전용 보드 2분기 출시 예고
이미지 확대보기미국 AI 스타트업 타이니코프(TinyCorp)가 애플의 초소형 PC '맥 미니(Mac Mini) M4 Pro'에 엔비디아의 소비자용 그래픽처리장치(GPU) 'RTX 5060'을 연결해 거대언어모델(LLM) 추론 연산에 성공했다고 IT 전문 매체 Wccftech이 지난 14일(현지시간) 보도했다. 단순한 하드웨어 접합이 아니다. 그동안 철옹성처럼 닫혀 있던 애플 운영체제(macOS)의 장벽을 소프트웨어 독자 개발로 돌파한 것이다.
이미지 확대보기어떻게 연결했나… 썬더볼트4가 'PCIe 터널'이 됐다
타이니코프는 ADT-Link 어댑터를 활용해 맥 미니의 썬더볼트4(Thunderbolt 4) 포트를 그래픽카드 전용 버스인 PCIe 연결로 전환하는 방식을 택했다. 이를 통해 확보한 데이터 전송 속도는 양방향 40Gbps(초당 약 5GB)다.
고사양 게임 구동에는 이 대역폭이 부족할 수 있다. 그러나 LLM 추론처럼 대규모 연산을 반복 처리하는 AI 작업에는 충분한 수준으로 평가된다. 업계 관계자들은 "게임은 실시간 렌더링이 핵심이지만, LLM 추론은 배치(batch) 단위 처리가 많아 대역폭 활용 패턴 자체가 다르다"고 설명한다.
진짜 성과는 소프트웨어… 애플 장벽 '우회 돌파'
기술적 핵심은 하드웨어가 아니라 소프트웨어에 있다. 애플은 2022년 macOS Ventura 업데이트 이후 자사 실리콘 계열 맥(Mac) 제품에서 엔비디아·AMD 외장 GPU(eGPU) 지원을 공식 중단했다. macOS 자체가 타사 GPU를 인식하지 못하도록 설계돼 있다는 의미다.
타이니코프는 애플의 장벽을 억지로 뚫는 대신, 아예 다른 길을 찾았다. 일반적으로 GPU는 모니터에 화면을 뿌려 주는 장치로 인식된다. 그런데 타이니코프는 자체 제작한 드라이버 프로그램으로 GPU에게 이렇게 지시했다. "너는 화면 출력은 잊어라. 계산만 해라." 덕분에 맥OS가 GPU의 존재 자체를 몰라도, GPU는 AI 연산을 묵묵히 수행할 수 있게 됐다.
업계에서는 컴퓨터의 하드웨어와 소프트웨어를 연결하는 핵심 엔진이자 관리자 운영체제인 'OS 커널을 건드리지 않고 사용자 공간에서만 드라이버를 구현하면, 시스템 안정성을 유지하면서도 소프트웨어 제한을 우회할 수 있다'는 평가가 나온다. 이 방식은 향후 GPU 제조사와 운영체제 벤더 간 폐쇄적 생태계 전쟁에서 소프트웨어 독자 개발의 위력을 입증한 사례로 기록될 전망이다.
2분기 전용 보드 출시… '전력 효율'이 관건
타이니코프는 오는 2분기 전용 eGPU 보드를 정식 출시할 계획이다. 이 보드에는 GPU 오류 발생 시 자동으로 재가동하는 초기화(Reset) 기능과 AI 모델 비(非)구동 시 전력을 자동 차단하는 절전 기능이 탑재된다.
현재 시제품 단계에서 확인된 한계점도 있다. 간헐적인 GPU 응답 중단 현상과 맥 미니의 온보드 메모리와 외장 GPU 메모리 간 데이터 이동 시 발생하는 병목이 과제로 남아 있다. 업계에서는 "기업용 AI 서비스 환경에 투입하기 위해서는 장시간 연속 구동 안정성 검증이 반드시 선행돼야 한다"는 신중론도 나온다.
엣지 AI 확산과 메모리 반도체… 삼성·SK하이닉스 수혜 시나리오
이번 사례는 국내 반도체 산업과도 직결된다. 타이니코프는 최근 AMD를 향해 96GB 비디오 메모리(VRAM)를 탑재한 차세대 GPU 생산을 공개적으로 요구하며 투자자 모집에 나섰다. AI 모델의 파라미터(매개변수) 규모가 방대해질수록, GPU에 탑재되는 메모리 용량과 대역폭이 병목으로 부상하고 있다는 인식이 깔려 있다.
증권가에서는 개인용 AI 서버 시장이 본격화될 경우 두 가지 수혜 흐름을 주목한다. 첫째, 그래픽 전용 D램(GDDR7)의 수요 확대다. RTX 5060을 비롯한 소비자용 GPU에 탑재되는 GDDR 메모리는 삼성전자와 SK하이닉스의 핵심 제품군에 해당한다. 둘째, 저전력 D램(LPDDR) 수요다. 맥 미니처럼 전력 효율이 중요한 소형 호스트 디바이스가 늘어날수록 LPDDR 탑재 기기도 함께 증가하기 때문이다. 과거 AI 서버 확장이 고대역폭메모리(HBM) 수요를 폭발적으로 끌어올렸다면, 이번에는 소비자용·저전력 메모리 시장에도 새 수요처가 생기는 셈이다.
아울러 이번 사례는 40Gbps 대역폭이라는 수치를 통해 HBM 시장이 왜 중요한지를 역설적으로 보여 준다. 외장 연결 방식이 갖는 구조적 병목을 극복하려면 결국 GPU 내부의 메모리 대역폭을 최대한 넓혀야 하기 때문이다.
"가성비 AI 서버 시장, 임계점 도달 임박"
Wccftech의 이번 보도가 주목받는 이유는 단순한 기술 시연 이상의 시장 신호를 담고 있어서다. 데이터센터 기반의 엔비디아 H100·B200 같은 기업용 AI 가속기는 1장당 수천만 원에 달한다. 반면 RTX 5060은 소비자 가격대에서 구할 수 있는 제품이다. 여러 장의 소비자용 GPU를 묶어 중소형 LLM을 로컬에서 구동하면, 고가의 클라우드 비용을 줄이면서 데이터 보안도 강화할 수 있다.
시장조사기관들의 수치가 이 흐름을 뒷받침한다. 가트너(Gartner)는 AI PC 출하량이 2025년 7700만 대에서 2026년 1억 4300만 대로 약 85% 급증할 것으로 내다봤다. 리서치앤마켓(Research and Markets)은 엣지 AI 시장 규모가 2025∼2026년 사이에만 29% 성장하고 2030년까지 확장세를 이어갈 것으로 예측했다. 그랜드뷰리서치(Grand View Research)는 AI 전체 시장이 2023년부터 2030년까지 연평균 37.3% 성장한다고 분석했다. 이 흐름 속에서 타이니코프의 시도는 "비싼 서버 없이도 AI를 돌릴 수 있다"는 명제를 실증한 첫 사례로, 온디바이스 AI 시장의 임계점이 빠르게 다가오고 있음을 알리는 신호탄으로 해석된다.
오는 2분기 타이니코프가 공개할 전용 eGPU 보드의 실전 벤치마크 수치가 나오면, 국내 AI 반도체 팹리스(설계 전문 기업)들의 하드웨어 구성 전략도 달라질 수 있다. 맥 미니 위에서 엔비디아 GPU가 돌아가는 장면은 단순한 기술 호기심을 넘어, AI 인프라 생태계의 권력 지형이 서서히 재편되고 있다는 현실을 보여 준다.
김주원 글로벌이코노믹 기자 park@g-enews.com












