code:068h
device:
close_button
X

최홍섭 대표 "딥시크 앱 차단 당연…오픈소스 모델 활용은 별개"

김범준 기자I 2025.02.19 17:16:44

최홍섭 마음AI 기술총괄 대표 인터뷰
딥시크 오픈소스 활용 내부망 전용 R1 모델 선봬
'딥시크 포비아'에…"앱 차단이 연구 막진 않아"
퀄컴 칩에 LLM 최적화…'온디바이드 AI' 정조준
"결국 '엔지니어링 싸움' 중요…피지컬 AI 목표"

[이데일리 김범준 기자] “딥시크(Deepseek)는 국내법 위반이기 때문에 개인정보 보호와 보안을 위해 정부가 애플리케이션 확산을 막는 건 당연합니다. 성능 좋은 딥시크 인공지능(AI)을 우려 없이 활용하고 싶으면 오픈소스 모델을 연구해 자사 서버와 내부망에 구축하면 됩니다.”

최홍섭 마음AI 기술총괄 대표가 18일 경기 성남시 본사에서 이데일리와 인터뷰하고 있다.(사진=김범준 기자)
최홍섭 마음AI(377480) 기술총괄 대표는 18일 경기 성남시 본사에서 이데일리와 만나 최근 ‘딥시크 포비아’가 확산하고 있는 것에 대해 “딥시크 앱과 오픈소스AI 모델을 활용해 내부망을 구축하는 건 별개”라며 이같이 강조했다.

중국의 생성형 AI 딥시크는 지난 15일 오후 6시부터 국내 앱마켓에서 서비스를 잠정 중단했다. 개인정보보호위원회가 과도한 정보 수집과 유출 등 추가적인 우려가 확산하지 않도록 잠정 중단 후 개선·보완할 것을 권고하면서다. 이번 조치로 국내 구글 플레이와 애플 앱스토어에서 딥시크 앱 신규 다운로드는 제한된다. 다만 이미 앱을 설치했거나 PC 웹브라우저 접속을 통해선 계속 이용할 수 있다.

딥시크가 개발해 시장에 오픈소스로 공개한 ‘R1’ 모델을 활용한 개별 서비스 구축도 이번 조치와 무관하게 여전히 가능하다. 최 대표는 “(이번 정부 조치는) 앱 자체를 차단한 것으로, 이용자가 전송한 모든 정보가 중국에 있는 딥시크 앱 서버로 간다”며 “중국의 AI 관련 법이 자국 기업 편의를 봐주는 요소가 많다 보니 한국과 미국 등 개별 국가 법과 상충이 있는 것”이라고 진단했다.

그는 이어 “딥시크는 이제 시작으로, 수개월 새 딥시크보다 훨씬 성능이 좋고 가벼운 AI 모델이 우후죽순 생겨날 것”이라며 “딥시크 앱 서비스 차단이 업계의 모델 연구·개발까지 막는 건 아니기 때문에 충분히 AI 기술에서 경쟁력을 확보할 수 있다”고 말했다.

2014년 창립해 2021년 코스닥에 상장한 마음AI는 ‘국내 최고 인공지능 전문가 조직’을 목표로 한다. 2017년 엔지니어로 합류한 최 대표가 최고기술책임자(CTO)가 아닌 최고경영자(CEO)로서 기술과 경영의 통합을 추구한다. 마음AI는 최근 기업용(B2B) 상품으로 내부망에 추론 능력이 강화된 전용 R1 모델을 설치할 수 있는 서비스를 선보였다. 이달 내부망 전용 대규모 언어 모델(LLM) 제품 ‘말 알바트로스(MAAL Albatross)’를 공식 출시하기도 했다.

(사진=마음AI)
최 대표는 “클라우드 LLM 시장은 글로벌 빅테크 기업들이 그래픽처리장치(GPU) 확보 경쟁을 하는 ‘자본의 싸움’이기 때문에, 자본력보다 우수한 인력과 기술 경쟁력이 있다면 ‘엔지니어링의 싸움’에 도전해야 한다”며 “저렴한 비용으로 최적화 성능을 추구하는 ‘온디바이스(On-Device) AI’ 영역에 집중해야 하는 이유”라고 봤다.

마음AI는 올 들어 미국 반도체 기업 퀄컴의 ‘사물인터넷 엑셀러레이터 프로그램(IoT Accelerator Program)’ 공식 멤버로 합류했다. 지난해부터 퀄컴과 협력해 자사 소형 대규모 언어 모델(sLLM) 기술을 퀄컴의 IoT 플랫폼에 최적화하는 데에 성공하면서다. 마음AI는 현재 퀄컴의 유일한 LLM 벤더사로서, 향후 전 세계 시장에 온디바이스 AI 기술 생태계와 사업적 기회를 확장한다는 방침이다.

최 대표는 “퀄컴의 첨단 기술 리소스와 글로벌 네트워크를 활용할 수 있게 됐고, 이를 통해 개발 속도를 높이고 설계 복잡성을 줄이며 제품 상용화를 가속화할 수 있다”면서 “퀄컴은 QCS6490 프로세서와 RB3 2세대 플랫폼, IQ9, IQ8 시리즈 등 IoT 용 최첨단 프로세서와 칩셋들을 통해 언어 모델(LLM)과 비전 모델(VLM) 기반 AI 추론 기술을 지원한다”고 설명했다.

그러면서 “온디바이스 AI는 데이터 처리를 클라우드가 아닌 디바이스 자체에서 수행하기 때문에 보안성, 응답 속도, 에너지 효율 면에서 혁신적”이라며 “이를 위해 디바이스가 언어와 시각 등 다양한 정보를 이해하고 답변을 생성할 수 있어야 하는데, LLM은 이러한 작업을 수행하는 데 최적화된 기술”이라고 역설했다.

마음AI는 거대언어 모델 ‘말(MAAL)’ 외에도, 음성대화 모델 ‘수다(SUDA)’, 엔드투엔드 자율주행 모델 ‘워브(WoRV)’ 등 3가지 주요 파운데이션 모델을 보유하고 있다. 특히 수다는 △음성 인식(STT) △언어 모델(LLM) △음성 합성(TTS)을 통합해 인터넷 연결 없이도 뛰어난 성능을 제공하는 AI 모듈로, 다양한 산업 분야에서 활용 가능성이 높다는 설명이다.

최 대표는 “마음AI가 궁극적으로 지향하는 목표는 ‘피지컬(Physical) AI’의 실현”이라고 제시했다. 지난달 미국 CES 2025에서 젠슨 황 엔비디아 CEO도 강조한 피지컬 AI는 각종 기기에 AI 기능을 장착한 ‘온디바이스(On-Device) AI’보다 진화한 개념이다.

피지컬 AI가 구현되면 로봇이나 자율주행차 등 소프트웨어 기능을 갖춘 물리적 실체가 스스로 외부 환경을 이해하고 데이터를 생성·축적해 고도화된 역할을 수행할 수 있다. 최 대표는 “LLM이 응용프로그램 인터페이스(API) 기능을 스스로 호출해 휴머노이드 로봇이 자유자재로 기능을 할 수 있는 피지컬 AI는 결국 온디바이스 기술로 구현될 것”이라고 전망했다.

배너

주요 뉴스

ⓒ종합 경제정보 미디어 이데일리 - 상업적 무단전재 & 재배포 금지

Not Authorized