GPU 덜쓰고 챗GPT 쓴다..카카오 AI 육성 프로젝트 대상 수상
지금의 챗GPT 등 대규모 언어모델(LLM) 서비스는 대부분 고가의 GPU 서버에 의존해 운영되고 있다. 이러한 구조는 서비스 규모가 커질수록 비용과 전력 소모가 급격히 증가하는 한계를 안고 있다. 우리 대학 연구진이 이러한 문제를 해결할 수 있는 차세대 AI 인프라 기술을 개발했다.
우리 대학은 전산학부 박종세 교수를 중심으로 한 애니브릿지(AnyBridge) AI 팀이 GPU에만 의존하지 않고, 다양한 AI 가속기를 통합해 LLM을 효율적으로 서비스할 수 있는 차세대 AI 인프라 소프트웨어를 개발했다고 30일 밝혔다. 해당 기술은 카카오가 주최한 ‘4대 과학기술원×카카오 AI 육성 프로젝트’에서 대상을 수상했다.
이번 프로젝트는 카카오와 KAIST, GIST, DGIST, UNIST 등 4대 과학기술원이 공동으로 추진한 산학 협력 프로그램으로, AI 기술을 기반으로 한 예비 창업팀들의 기술력과 사업성을 종합적으로 평가해 우수 팀을 선발했다. 대상 팀에는 총 2,000만 원의 상금과 함께 최대 3,500만 원 규모의 카카오클라우드 크레딧이 제공된다.
애니브릿지 AI는 KAIST 전산학부 박종세 교수(대표)를 중심으로 권영진 교수, 허재혁 교수가 함께 참여한 기술 창업팀으로, AI 시스템과 컴퓨터 아키텍처 분야에서 축적한 연구 성과를 바탕으로 실제 산업 현장에서 활용 가능한 기술 개발을 목표로 하고 있다. 또한 미국 실리콘밸리 AI 반도체 시스템 스타트업 삼바노바(SambaNova)의 공동창업자이자 스탠포드대 교수인 쿤레 올루코툰(Kunle Olukotun) 교수가 자문위원으로 참여해, 글로벌 시장을 염두에 둔 기술 및 사업 확장을 함께 추진하고 있다.
애니브릿지 팀은 현재 대부분의 LLM 서비스가 고가의 GPU 인프라에 의존하고 있어, 서비스 규모가 확대될수록 운영 비용과 전력 소모가 급격히 증가하는 구조적 한계를 안고 있다는 점에 주목했다. 연구진은 이러한 문제의 근본 원인이 특정 하드웨어 성능이 아니라, GPU 뿐만 아니라 NPU(AI 계산에 특화된 반도체), PIM(메모리 안에서 AI 연산을 처리하는 차세대 반도체) 등 다양한 AI 가속기를 효율적으로 연결·운용할 수 있는 시스템 소프트웨어 계층의 부재에 있다고 분석했다.
이에 애니브릿지 팀은 가속기 종류와 관계없이 동일한 인터페이스와 런타임 환경에서 LLM을 서비스할 수 있는 통합 소프트웨어 스택을 제안했다. 특히 GPU 중심으로 고착화된 기존 LLM 서빙 구조의 한계를 지적하고, 여러 종류의 AI 가속기를 하나의 시스템에서 함께 활용할 수 있는 ‘멀티 가속기 LLM 서빙 런타임 소프트웨어’를 핵심 기술로 제시해 높은 평가를 받았다.
이 기술을 통해 특정 벤더나 하드웨어에 종속되지 않으면서도, 작업 특성에 따라 가장 적합한 AI 가속기를 선택·조합할 수 있는 유연한 AI 인프라 구조 구현이 가능하다. 이는 LLM 서비스의 비용과 전력 소모를 줄이고, 확장성을 크게 높일 수 있는 장점으로 평가된다.
또한 애니브릿지 팀은 다년간 축적한 LLM 서빙 시스템 시뮬레이션 연구를 바탕으로, 실제 대규모 인프라를 구축하지 않고도 다양한 하드웨어·소프트웨어 설계 조합을 사전에 검증할 수 있는 연구 기반을 갖추고 있다. 이러한 점은 기술의 완성도와 산업적 실현 가능성을 동시에 보여줬다는 평가를 받았다.
박종세 KAIST 전산학부 교수는 “이번 수상은 GPU 중심 AI 인프라의 한계를 넘어, 다양한 AI 가속기를 통합하는 시스템 소프트웨어의 필요성을 인정받은 결과”라며 “연구 성과를 산업 현장과 창업으로 확장할 수 있었다는 점에서 의미가 크다”고 말했다. 이어 “산업 파트너들과의 협력을 통해 차세대 LLM 서빙 인프라 핵심 기술로 발전시켜 나가겠다”고 밝혔다.
이번 수상은 KAIST의 연구 성과가 논문을 넘어 차세대 AI 인프라 기술과 창업으로 이어지고 있음을 보여주는 사례로 평가된다. 애니브릿지 AI 팀은 향후 카카오 및 관련 산업 파트너들과의 협력을 통해 기술 고도화와 실증을 진행하고, 차세대 AI 인프라 소프트웨어 분야의 핵심 기술로 발전시켜 나갈 계획이다.
AI도 ‘경력직’ 시대...배운 지식 쉽게 가르친다
새 스마트폰을 바꿀 때마다 연락처와 사진을 처음부터 다시 옮겨야 한다면 얼마나 불편할까. 지금의 인공지능(AI) 모델들도 이와 비슷한 상황에 놓여 있다. 성능이 더 좋은 새로운 ChatGPT 같은 AI 모델이 등장할 때마다, 특정 분야의 지식을 갖추기 위해 막대한 데이터와 비용을 들여 다시 학습해야 했기 때문이다. 한국 연구진이 이러한 비효율을 해결할 수 있는 AI 모델 간 ‘지식 이식’ 기술을 개발했다.
우리 대학은 전산학부 김현우 교수 연구팀이 고려대학교(총장 김동원) 연구팀과 공동연구를 통해, 서로 다른 인공지능 모델 사이에서 학습된 지식을 효과적으로 ‘이식’할 수 있는 새로운 기술을 개발했다고 27일 밝혔다.
최근 인공지능 분야에서는 사진과 글을 함께 이해하는 시각–언어 모델(Vision-Language Model, VLM)이 빠르게 발전하고 있다. 이는 사용자가 사진을 보여주며 질문하면 설명을 해주는 ChatGPT와 같은 멀티모달 AI를 떠올리면 이해하기 쉽다. 이러한 모델들은 대규모 이미지와 언어 데이터를 사전 학습해, 적은 양의 데이터만으로도 새로운 분야에 비교적 빠르게 적응할 수 있다는 장점을 지닌다.
그러나 새로운 AI 모델이 나올 때마다 이러한 ‘적응 과정’을 처음부터 다시 수행해야 한다는 점이 큰 비효율로 지적돼 왔다. 기존의 적응 기법들 역시 모델 구조가 조금만 달라져도 그대로 활용하기 어렵거나, 여러 모델을 동시에 사용해야 해 메모리와 연산 비용이 크게 증가하는 한계를 안고 있었다.
연구팀은 이러한 문제를 해결하기 위해 모델의 구조나 크기에 상관없이 학습된 지식을 재사용할 수 있는 전이 가능한 적응 기법(Transferable adaptation)인 ‘TransMiter’를 제안했다. 이 기술의 핵심은 한 AI가 학습하며 쌓은 ‘적응 경험’을 다른 AI 모델로 직접 옮기는 것이다.
연구진 기술은 AI의 복잡한 내부 구조를 뜯어고치지 않고, 예측 결과(output)만 보고 배운 요령을 다른 AI에게 전해주는 방식이다. 서로 생김새가 다른 AI 모델이라도 같은 질문에 내놓은 답변을 기준으로 정리해 주면, 한 AI가 익힌 노하우를 다른 AI도 바로 활용할 수 있다. 그래서 복잡하고 시간이 많이 드는 학습 과정을 다시 거칠 필요가 없고, 속도도 거의 느려지지 않는다.
이번 연구는 그동안 모델 구조나 크기가 다르면 재사용이 거의 불가능하다고 여겨졌던 AI의 적응 지식을 모델 종류에 상관없이 정밀하게 이식할 수 있음을 처음으로 입증했다는 점에서 의미가 크다. 이를 통해 반복적인 학습 비용을 줄일 수 있을 뿐 아니라, 필요한 분야에 맞춰 거대언어모델을 실시간으로 업데이트하는 이른바 ‘지식 패치(patch)’ 기술로의 활용도 기대된다.
김현우 교수는 “이번 연구를 확장하면, 빠르게 발전하는 초거대언어모델이 등장할 때마다 반복적으로 수행해야 했던 후학습(post-training)의 비용을 크게 줄일 수 있다”며, “특정 분야의 전문 지식을 손쉽게 추가하는 ‘모델 패치’가 가능해질 것”이라고 설명했다.
이번 연구에는 KAIST 전산학부 송태훈 석사과정 학생, 이상혁 박사후연구원, 고려대학교 박지환 박사과정 학생이 공동 저자로 참여했으며, 김현우 교수가 교신저자를 맡았다. 연구 결과는 인공지능 분야 최고 권위의 국제 학술대회인 AAAI 2026(Association for the Advancement of Artificial Intelligence)에 구두 발표(25년 기준 채택률 4.6%)로 채택돼, 1월 25일 발표됐다.
※ 논문명: Transferable Model-agnostic Vision-Language Model Adaptation for Efficient Weak-to-Strong Generalization. DOI : https://doi.org/10.48550/arXiv.2508.08604
한편, 김현우 교수 연구실은 이번 논문을 포함해 구글 클라우드 AI와 공동 진행한 문서내의 테이블 이해를 고도화한 기술인 TabFlash 포함하여 해당 학회에 총 3편의 논문을 발표했다.
'이 생선 어디서 왔지?'...세계가 인정한 수산물 이력추적 기술 확보
우리가 마트에서 수산물을 살 때, 이 생선이 어디서 잡혔고 어떤 과정을 거쳐 내 식탁에 올랐는지 궁금했던 적이 있을 것이다. 하지만 복잡한 유통 과정으로 그 경로를 투명하게 확인하기 어려웠다. 우리 대학 연구진이 이러한 문제를 해결하고, 전 세계 어디서나 통용되는 국제 기준으로 수산물의 이동 경로를 한눈에 확인할 수 있는 디지털 기술을 개발했다.
우리 대학은 KAIST 오토아이디랩 부산혁신연구소 김대영 소장(전산학부 교수)이 개발한 GS1 국제표준 기반 디지털전환 솔루션 ‘올리오패스(OLIOPASS)’가 글로벌 수산물 이력추적 협의체인 GDST(Global Dialogue on Seafood Traceability)의 까다로운 성능 검증을 통과해, 국내 최초로 ‘GDST 호환 솔루션(Capable Solution)’ 인증을 획득했다고 19일 밝혔다.
이번 GDST 인증을 받은 기술은 전 세계에서 단 13개에 불과하다. 이 가운데 생산–가공–유통–판매에 이르는 전 과정을 빠짐없이 관리하는 ‘전 구간(Full Chain)’ 이력추적 기술을 지원하는 곳은 KAIST를 포함해 전 세계 7곳뿐이다.
GDST는 2015년 세계경제포럼(WEF)의 제안으로 설립된 국제 기구로, 수산물이 이동하는 모든 과정의 정보를 전 세계가 합의한 국제표준(GS1)에 따라 디지털로 기록하고 공유하도록 돕는다. 이는 전 세계가 함께 사용하는 ‘공급망 공통 언어’를 만드는 작업에 비유할 수 있다.
GDST는 수산물 이동 과정에서 반드시 기록해야 할 핵심 데이터(KDEs)와 언제·어디서·무엇이 이동했는지를 정의한 중요 사건(CTEs)을 국제 기준으로 정해, 수산물 이력 정보의 신뢰성을 높이는 글로벌 표준 체계다.
최근 미국과 유럽의 주요 식품유통 기업들이 GDST 기준 충족을 요구면서, 해당 기준은 글로벌 시장 진출을 위한 사실상의 필수 요건으로 자리 잡고 있다. KAIST는 2019년부터 GDST 창립 멤버로 참여해 수산물 이력추적 모델과 시스템 간 정보 연동(Interoperability) 설계에 핵심적인 역할을 해왔다.
특히 미국 식품의약국(FDA)이 2028년 7월부터 식품 이력추적 의무화(FSMA 204)를 예고한 상황에서, 이번 인증은 국내 기업들이 미국 등 글로벌 시장 규제를 충족할 수 있는 기술적 해법을 확보했다는 점에서 의미가 크다.
지난 11월 5일 인증을 받은 OLIOPASS는 KAIST의 IoT 기술과 국제표준(GS1 EPCIS 2.0, GS1 Digital Link)을 결합한 디지털 이력추적 플랫폼으로, 다양한 제품과 자산의 이동 정보를 표준화된 언어로 기록·공유하고 블록체인 기술로 위·변조를 원천 차단한다. 기업 간 시스템이 달라도 이력 데이터는 원활하게 연동된다.
또한 OLIOPASS는 AI 활용이 가능한 ‘AI-ready 데이터’ 인프라로 설계돼 대형 멀티모달 모델, AI 에이전트, 지식그래프, 온톨로지 등 차세대 AI 기술을 손쉽게 적용할 수 있다. 이를 통해 단순 이력관리를 넘어 디지털·AI 전환을 동시에 지원하는 플랫폼으로 활용된다.
김대영 KAIST 오토아이디랩 부산혁신연구소장은 “이번 인증은 글로벌 공급망 전반에서 신뢰 가능한 데이터 기술 역량을 국제적으로 인정받은 것”이라며 “OLIOPASS를 수산·식품을 넘어 의약품, 물류, 국방, 스마트시티 등 다양한 분야로 확산시켜 KAIST 기술이 세계가 함께 쓰는 플랫폼으로 성장하도록 하겠다”고 말했다.
※관련 링크: https://thegdst.org/verified-gdst-capable-solutions/
영상 속 1등이 어디죠? ‘딱 그 순간’을 찾아내는 AI 기술 세계 1위
‘카메라가 다른 곳을 비추는 사이 사라진 물체는 무엇 인가요?’라는 복잡한 질문이 나오면 AI는 많은 경우 영상 속 실제 상황을 보고 판단하는 것이 아니라, 언어 패턴에 의존해 ‘그럴듯한 답’을 추측하는 문제가 있다. 우리 대학 연구진은 이 한계를 해결하기 위해 영상 속 ‘딱 중요한 순간(Trigger moment)’을 AI가 스스로 찾아내도록 하는 기술을 개발했고, 이 기술로 국제 AI 대회에서 우수성을 입증했다.
우리 대학은 전산학부 윤성의 교수 연구팀이 이화여대 노준혁 교수 연구팀과 공동 연구를 통해, 세계적 권위의 컴퓨터 비전 학회 ICCV 2025에서 열린 Perception Test Challenge의 영상 근거 기반 질의응답(Grounded Video Question Answering) 트랙에서 1위를 차지했다고 28일 밝혔다.
이번 ICCV 2025에서 열린 인지 테스트 대회(Perception Test Challenge)는 구글 딥마인드(Google DeepMind)가 주관하여 총 상금 50,000 유로(한화 약 8,300만원)가 걸린 대회로, 영상·음성·텍스트 등 다양한 데이터를 종합적으로 이해하는 멀티모달 AI의 인지 및 추론 능력을 평가한다. 특히 언어 중심 편향을 벗어나 실제 영상 근거를 바탕으로 판단하는 능력이 핵심 평가 요소다.
우리 대학 연구팀은 영상 전체를 무작정 분석하는 기존 방식과 달리, AI가 정답을 위해 꼭 필요한 핵심 장면(Trigger moment)을 먼저 찾아내도록 만드는 새로운 기술을 개발했다. 쉽게 말하면, “이 질문에 답하려면 이 장면이 결정적이야!”를 AI가 스스로 찾아내도록 설계한 기술이다.
이 프레임워크를 연구팀은 CORTEX(Chain-of-Reasoning for Trigger Moment Extraction)라고 부른다.
연구팀의 시스템은 서로 다른 기능을 수행하는 세 모델이 순차적으로 작동하는 3단계 구조로 구성된다. 먼저 추론 AI(Gemini 2.5 Pro)가 질문에 답하기 위해 어느 순간을 봐야 하는지 사고하고 딱 그 순간(Trigger moment) 후보를 찾는다. 다음으로 객체 위치 찾기 모델(Grounding 모델, Molmo-7B)이 해당 순간 화면 속 사람·차·사물의 정확한 위치(좌표)를 파악한다. 마지막으로 추적 모델(Tracking 모델, SAM2)이 선택된 한 장면을 기준으로 앞뒤 시간대의 객체 움직임을 정밀하게 추적해 오류를 줄인다.
즉, ‘핵심 장면 한 컷을 정확히 찍고, 그 장면을 중심으로 정답 근거를 추적하는 방식’덕분에 영상 초반 오판이나 가려짐 같은 문제도 크게 줄었다.
총 23개 팀이 참여한 영상 근거 기반 질의응답(Grounded VideoQA) 트랙에서 KAIST팀 SGVR Lab(Scalable Graphics, Vision & Robotics Lab)은 ‘고차 추적 정확도(HOTA, Higher Order Tracking Accuracy)’지표에서 0.4968점을 기록하며 2등 미국 콜럼비아대의 0.4304점을 압도적인 점수 차로 상회하며 1위를 차지했다. 이는 전년도 우승 기록 0.2704점보다도 약 두 배에 가까운 성과다.
이 기술은 실생활에서도 넓게 쓰일 수 있다. 자율주행차는 사고 위험이 있는 순간을 정확히 보고, 로봇은 주변 상황을 더 똑똑하게 이해한다. 또 보안·감시 시스템은 중요한 장면을 빠르게 찾아내고, 미디어 분석에서는 사람이나 사물의 행동을 시간 순서대로 정확히 추적할 수 있다.
즉, AI가 “영상 속 실제 근거”를 보고 판단할 수 있도록 만드는 핵심 기술이다. 특히 영상 속 객체가 시간에 따라 어떻게 행동하는지 정확히 짚어내는 능력은 향후 AI의 실제 현장 적용을 크게 확장할 것으로 기대된다.
이번 연구는 ICCV 2025, the 3rd Perception Test Challenge 학회에서 10월 19일자 발표하였다.
이 성과는 과학기술정보통신부 기초연구사업 중견연구와 SW스타랩 사업 ‘오픈 월드 로봇 서비스를 위한 불특정 환경 인지·행동·상호작용 알고리즘 개발’ 및 AGI 사업 ‘체화형 AGI를 위한 현실 세계 구축과 인지 에이전트 기반 이원 역량 접근법’ 과제의 지원을 받아 수행되었다.
AI보다 정확한 C→러스트 자동 변환 원천 기술로 전 세계 주목
운영체제 등 전 세계 핵심 소프트웨어의 기반인 C 언어가 보안 한계에 직면한 가운데, 우리 대학 연구진이 이를 대체할 러스트(Rust)로의 정확한 자동 변환을 위한 핵심 원천 기술 연구를 선도적으로 이끌고 있다. 기존 인공지능(LLM) 방식의 한계였던 ‘변환의 수학적 정확성’을 증명하고, C 언어의 보안 문제를 러스트로 자동 변환하여 해결하여, 향후 소프트웨어 보안 연구의 새로운 방향과 비전을 제시함으로써, 세계 최고 권위 학술지 CACM 표지 논문으로 선정되고, KAIST는 컴퓨터 과학 분야에서 세계적 연구 리더십을 입증했다.
우리 대학은 전산학부 류석영 교수 연구팀(프로그래밍 언어 연구실)의 논문이 세계 최대 컴퓨터학회인 ACM(Association for Computing Machinery)이 발행하는 최고 권위 학술지 CACM(Communications of the ACM) 11월호 표지 논문으로 선정되었다고 9일 밝혔다.
이번 논문은 류석영 교수 연구팀이 개발한 C 언어를 러스트(Rust)로 자동 변환하는 기술을 종합하여 다루었으며 향후 이 연구가 나아가야 할 기술적 비전과 학문적 방향을 제시했다는 점에서 국제 연구 커뮤니티의 높은 평가를 받았다.
C 언어는 70년대부터 산업계에서 폭넓게 사용되어 왔으나, 구조적 한계로 인해 심각한 버그와 보안 취약점을 지속적으로 유발해 왔다. 반면, 러스트는 2015년부터 개발된 안전한 프로그래밍 언어로, 운영체제 및 웹 브라우저 개발 등에 사용되며, 프로그램 실행 전에 버그를 탐지하고 방지할 수 있는 특성을 지닌다.
미국 백악관은 2024년 2월 발표한 기술 보고서에서 C 언어 사용 중단을 권고하였고, 미국 국방고등연구계획국(DARPA) 또한 C 코드를 러스트로 자동 변환하는 기술 개발 과제를 추진하며 C 언어의 보안 문제 해결에 러스트가 핵심 대안임을 명시했다.
우리 대학 류 교수 연구팀은 이러한 움직임이 본격화되기 이전부터 C 언어의 안전성 문제와 자동 변환의 중요성을 선제적으로 제기하고, 관련 핵심 기술을 지속적으로 개발해 왔다.
우리 대학 연구팀은 2023년 5월 프로그램 동기화에 필요한 뮤텍스(Mutex) 변환 기술을소프트웨어 공학 분야 최고 권위 학회인 ICSE(International Conference on Software Eng)에서 발표했으며, 2024년 6월에는 결과 전달에 사용되는 출력 파라미터(Output Parameter) 변환 기술을 프로그래밍 언어 분야 최고 학회인 PLDI(Programming Language Design and Implementation)에서, 같은 해 10월에는 다양한 데이터를 함께 저장하는 유니언(Union) 변환 기술을 소프트웨어 자동화 분야 대표 학회인 ASE(Automated Software Eng)에서 각각 발표했다.
이들 세 연구는 모두 세계 최고 수준의 국제 학술대회에서 ‘세계 최초’로 발표된 성과로, 각 기능별 자동 변환 기술을 완성도 높게 구현해 왔다.
연구팀은 2023년 이후 매년 CACM에 논문을 게재하며 세계적으로 중요하고 도전적인 문제를 꾸준히 해결해 온 글로벌 선도 연구진으로 자리매김했다.
이번 논문은 홍재민 박사(KAIST 정보전자연구소 연수연구원)가 제 1저자로 CACM(Communications of the ACM)에 10월 24일 게재되었다.
※논문제목: Automatically Translating C to Rust, DOI: https://doi.org/10.1145/3737696
홍재민 박사는 “우리가 개발한 변환 기술은 프로그래밍 언어 이론에 기반한 원천 기술로, 변환의 ‘정확성’을 논증할 수 있는 것이 큰 강점”이라며, “대부분의 연구가 대규모 언어모델(LLM)에 의존하는 반면, 우리 기술은 변환의 올바름을 수학적으로 보장할 수 있다”고 밝혔다.
홍 박사는 2026년 3월부터 UNIST 컴퓨터공학과 조교수로 부임할 예정이다.
또한 류 교수 연구팀은 소프트웨어 공학 최고 권위 학회 ASE 2025에 C→러스트 변환 기술을 포함한 4편의 논문이 채택되어 발표를 앞두고 있다.
이들 논문은 자동 변환 기술뿐 아니라 ▲양자컴퓨터 프로그램이 제대로 작동하는지 검증하는 기술, ▲웹어셈블리 프로그램(웹에서 빠르고 효율적으로 프로그램 실행하기 위한 기술)의 정확성을 자동으로 검사하고 테스트를 만들어주는 ‘웨스트(WEST)’ 기술, ▲복잡한 웹어셈블리 코드를 자동으로 단순화해 오류를 빠르게 찾아내는 기술 등 첨단 소프트웨어 공학 분야 전반에서 세계적으로 높은 평가를 받고 있다. 이 가운데 웨스트(WEST) 논문은 우수논문상(Distinguished Paper Award)을 받았다.
이번 연구는 한국연구재단 선도연구센터·중견연구자지원사업, 정보통신기획평가원(IITP), 삼성전자의 지원으로 수행되었다.
‘2025 AI 챔피언’등극.. AI가 이제 택시도 스스로 부른다
이제는 단순히 대화만 하는 음성비서를 넘어, AI가 직접 화면을 보고 판단해 택시를 호출하고 SRT 티켓을 예매하는 시대가 열렸다.
우리 대학은 전산학부 신인식 교수(㈜플루이즈 대표)가 이끄는 AutoPhone 팀(플루이즈·KAIST·고려대·성균관대)이 과학기술정보통신부가 주최한 ‘2025 인공지능 챔피언(AI Champion) 경진대회’에서 초대 AI 챔피언(1위)에 선정됐다고 6일 밝혔다.
이번 대회는 AI 기술의 혁신성, 사회적 파급력, 사업화 가능성을 종합 평가하는 국내 최대 규모의 AI 기술 경진대회로, 전국 630개 팀이 참가한 가운데 AutoPhone 팀이 최고 영예를 차지하며 연구개발비 30억 원을 지원받는다.
AutoPhone 팀이 개발한 ‘FluidGPT’는 사용자의 음성 명령을 이해해 스마트폰이 스스로 앱을 실행하고 클릭·입력·결제까지 완료하는 완전 자율형 AI 에이전트 기술이다.
예를 들어, 사용자가 “서울역에서 부산 가는 SRT 예매해줘” 또는 “택시 불러줘”라고 말하면, FluidGPT는 실제 앱을 열고 필요한 단계를 순차적으로 수행해 결과를 완성한다.
이 기술의 핵심은 ‘비침습형(API-Free)’ 구조다. 기존에는 택시 앱(API) 을 이용해 직접 호출 기능을 실행해서 앱 내부 시스템에 연결(API 통신) 해야 했다. 반면 이 기술은 기존 앱의 코드를 수정하거나 앱(API)을 연동하지 않고, AI가 화면(UI)을 직접 인식하고 조작함으로써 사람처럼 스마트폰을 다룰 수 있는 능력을 갖췄다.
이로써 FluidGPT는 “사람처럼 보고, 판단하고, 손을 대신 움직이는 AI”라는 새로운 패러다임을 제시하며, ‘AI폰 시대’를 여는 핵심 기술로 평가받고 있다.
FluidGPT는 기존의 단순 음성비서를 넘어, AI가 직접 화면을 보고 판단하여 행동하는 ‘Agentic AI’(행동형 인공지능) 개념을 구현했다. AI가 앱 버튼을 클릭하고 입력 필드를 채우며 데이터를 참조해 사용자의 목적을 스스로 달성하는 완전 행동형 시스템으로, 스마트폰 사용 방식의 혁신을 예고하고 있다.
전산학부 신인식 교수는 “AI가 이제 대화에서 행동으로 진화하고 있다. FluidGPT는 사용자의 말을 이해하고 실제 앱을 스스로 실행하는 기술로, ‘AI폰 시대’의 출발점이 될 것이다. AutoPhone 팀은 세계적 수준의 연구 역량을 갖추고 있으며, 앞으로 모두가 쉽게 사용할 수 있는 AI 서비스 확산에 기여하겠다”고 소감을 밝혔다.
이광형 KAIST 총장은 “이번 성과는 KAIST의 AI 융합 비전을 보여주는 대표적인 사례”라며 “AI 기술이 국민 생활 속으로 들어와 새로운 혁신의 변화를 이끌고 있다”고 말했다.
이어 “KAIST는 앞으로도 AI와 반도체 등 미래 핵심기술 연구를 선도해 국가 경쟁력에 힘을 보태겠다”고 덧붙였다.
휴대폰 사진 단 몇 장으로 구현한 생생한 3D 가상 환경 속으로
기존의 3D 시뮬레이션은 실제 공간을 라이다(LiDAR)나 3D 스캐너로 정밀하게 측정하고, 수천 장의 사진을 카메라 위치 정보와 함께 보정해야 하는 번거로운 과정을 거쳐야 했다. 우리 대학 연구진은 이러한 한계를 극복하고 단 2~3장의 일반 사진만으로도 실험실이나 도심을 고정밀 3D 공간으로 복원해 시뮬레이션 환경을 구축할 수 있는 기술을 선보였다. 이로써 ‘현실을 찍으면 곧바로 가상 환경이 되는’새로운 패러다임을 제시했다.
우리 대학은 전산학부 윤성의 교수 연구팀이 정밀한 카메라 위치 정보 없이도 일반 영상만으로 고품질의 3차원 장면을 복원할 수 있는 새로운 기술 ‘SHARE(Shape-Ray Estimation)’를 개발했다고 6일 밝혔다.
기존의 3D 복원 기술은 소수의 영상으로 3차원 장면을 재현하기 위해 촬영 당시의 정밀한 카메라 위치와 방향 정보가 필수적으로 요구되어, 고가의 특수 장비나 복잡한 보정 과정이 필요하다는 한계가 있었다. 이러한 제약 때문에 실제 환경에서의 적용이 어렵고, 대중적 활용에도 제동이 걸려왔다.
연구팀은 이러한 문제를 해결하기 위해, 단 2~3장의 일반 사진만으로도 3차원 장면과 카메라의 방향을 동시에 추정해 정확한 3D 모델을 구축하는 기술을 개발했다. 별도의 추가 학습이나 정밀한 보정 과정 없이도 실제 환경에서 신속하고 정밀한 복원이 가능해 효율성과 범용성이 매우 높은 기술로 평가받고 있다.
핵심 기술인 SHARE는 영상 속에서 사물의 형태(Shape)와 카메라의 시선 방향(Ray)을 동시에 추정하는 새로운 방식을 도입했다.
기존 방식이 카메라 위치를 미리 알아야 3D 구조를 계산할 수 있었다면, SHARE는 영상 자체에서 공간 정보를 스스로 찾아내어 카메라와 구조를 추론한다. 이를 통해 서로 다른 위치에서 촬영된 다중 영상을 하나의 공통된 공간으로 정렬하고, 형상 왜곡 없이 안정적인 3D 복원을 실현했다.
윤성의 교수는 “SHARE 기술은 3D 복원의 진입 장벽을 획기적으로 낮춘 기술로, 건설·미디어·게임 등 다양한 산업에서 스마트폰 카메라만으로도 고품질 콘텐츠 제작을 가능하게 할 것”이라며 “로봇과 자율주행 분야에서도 저비용 시뮬레이션 환경 구축 등 다양한 응용 가능성이 있다”고 밝혔다.
이번 연구는 나영주 박사과정, 김태연 석사과정 학생이 공동 제1저자로 참여했으며, 연구 결과는 국제 이미지 처리 학회(IEEE International Conference on Image Processing, ICIP 2025)에서 9월 17일 발표되어 ‘최고 학생논문상(Best Student Paper Award)’을 수상했다.
이 상은 올해 채택된 643편의 논문 중 단 한 편에게만 수여되는 영예(수상률 0.16%)로, KAIST 연구진의 우수한 연구역량을 다시 한 번 입증했다.
*논문명 : Pose-free 3D Gaussian Splatting via Shape-Ray Estimation, DOI https://arxiv.org/abs/2505.22978
*수상정보: https://www.linkedin.com/posts/ieeeicip_congratulations-to-the-icip-2025-best-activity-7374146976449335297-6hXz
이번 성과는 과학기술정보통신부 SW스타랩 사업 ‘오픈 월드 로봇 서비스를 위한 불특정 환경 인지·행동·상호작용 알고리즘 개발’ 과제지원으로 수행되었다.
‘나빌레라’처럼 춤추는 아바타...AI가 움직임 이해하고 그려
AI가 단순히 ‘그럴듯하게 그리는 수준’을 넘어, 옷이 왜 흔들리고 주름이 생기는지까지 이해하는 시대가 열렸다. 우리 대학 연구진은 3차원 공간에서의 움직임과 상호작용을 실제 물리 법칙처럼 학습하는 새로운 생성형 AI를 개발했다. 기존 2D 기반 영상 AI의 한계를 뛰어넘은 이번 기술은 영화, 메타버스, 게임 속 아바타의 현실감을 높이고 모션캡처나 3D 그래픽 수작업을 크게 줄일 수 있을 것으로 기대를 모은다.
우리 대학은 전산학부 김태균 교수 연구팀이 기존 2D 픽셀 기반 영상 생성 기술의 한계를 극복한 공간·물리 기반 생성형 AI 모델 ‘MPMAvatar’를 개발했다고 22일 밝혔다.
연구팀은 기존 2D 기술의 문제를 해결하기 위해, 가우시안 스플래팅(Gaussian Splatting)으로 다중 시점 영상을 3차원 공간으로 재구성하고, 여기에 물리 시뮬레이션 기법(Material Point Method, MPM)을 결합한 새로운 방식을 제안했다.
즉, 여러 시점에서 촬영한 영상을 입체적으로 재구성하고, 그 안에서 물체가 실제처럼 움직이며 상호작용하도록 물리 법칙을 AI가 스스로 학습하게 한 것이다.
이를 통해 물체의 재질·형태·외부 힘에 따른 움직임을 계산하고, 그 결과를 실제 영상과 비교해 AI가 물리 법칙을 스스로 학습할 수 있도록 했다.
연구팀은 3차원 공간을 점(포인트) 단위로 표현하고, 각 점에 가우시안과 MPM을 함께 적용해 물리적으로 자연스러운 움직임과 사실적인 영상 렌더링을 동시에 구현했다.
즉, 3D 공간을 수많은 작은 점들로 쪼개어 각 점이 실제 물체처럼 움직이고 변형되도록 만들어, 현실과 거의 구분이 안 될 만큼 자연스러운 영상을 구현한 것이다.
특히 옷처럼 얇고 복잡한 물체의 상호작용을 정밀하게 표현하기 위해, 물체의 표면(메쉬)과 입자 단위 구조(포인트)를 함께 계산하고, 3차원 공간에서 물체의 움직임과 변형을 물리 법칙에 따라 계산하는 MPM(Material Point Method) 기법을 활용했다.
또한, 옷이나 물체가 움직이며 서로 부딪히는 장면을 사실적으로 재현하기 위해 새로운 충돌 처리(collision handling) 기술을 개발했다.
이 기술을 적용한 생성형 AI 모델 MPMAvatar는 느슨한 옷을 입은 사람의 움직임과 상호작용을 사실적으로 재현하고, AI가 학습 과정에서 본 적 없는 데이터도 스스로 추론해 처리하는 ‘제로샷(Zero-shot)’생성에도 성공했다.
제안된 기법은 강체, 변형 가능한 물체, 유체 등 다양한 물리적 특성을 표현할 수 있어, 아바타뿐만 아니라 일반적인 복잡한 장면 생성에 활용될 수 있다.
김태균 교수는 “이번 기술은 AI가 단순히 그림을 그리는 것을 넘어, 눈앞의 세계가 ‘왜’ 그렇게 보이는지까지 이해하도록 만든 것으로 물리 법칙을 이해하고 예측하는 ‘Physical AI’의 가능성을 보여준 연구로 이는 AGI(범용 인공지능)로 가는 중요한 전환점”이라고 설명했다. 이어 “가상 프로덕션, 영화, 숏폼, 광고 등 실감형 콘텐츠 산업 전반에 실질적으로 적용돼 큰 변화를 만들어낼 것”이라고 기대를 밝혔다.
현재 연구팀은 이 기술을 확장해, 사용자의 텍스트 입력만으로도 물리적으로 일관된 3D 동영상을 생성할 수 있는 모델 개발을 진행 중이다.
이번 연구는 KAIST 김재철AI대학원 이창민 석사과정 학생이 제1저자로, KAIST 전산학부 이지현 박사과정 학생이 공저자로 참여하였고, 연구 결과는 AI 분야 최고 권위 국제학술대회인 NeurIPS 12월 2일에 발표하며, 프로그램 코드는 모두 공개될 예정이다.
*논문: C. Lee, J. Lee, T-K. Kim, MPMAvatar: Learning 3D Gaussian Avatars with Accurate and Robust Physics-Based Dynamics,Proc. of Thirty-NinthAnnual Conf. on Neural Information Processing Systems (NeurIPS), San Diego, US, 2025
arXiv버전: https://arxiv.org/abs/2510.01619
*관련 프로젝트 사이트: https://kaistchangmin.github.io/MPMAvatar/
*AI가 그려낸 나빌레라처럼 춤추는 관련 동영상 링크: https://www.youtube.com/shorts/ZE2KoRvUF5c, https://youtu.be/ytrKDNqACqM
한편, 이 연구는 과학기술정보통신부와 정보통신기획평가원(IITP)이 지원하는 인간지향적 차세대 도전형 범용AI기술 개발사업(RS-2025-25443318)과 생성AI 선도인재양성 사업의(RS-2025-25441313) 지원을 받아 수행되었다.
스트레스 많으면 냉장고 사용↑... IoT 센서로 정신건강 읽는다
국내 1인 가구가 800만 세대를 넘어 전체의 36%를 차지하며 역대 최고치를 기록했다. 서울시 조사에 따르면 1인 가구의 62%가 ‘외로움’을 느끼는 등 고립감과 정신건강 문제가 심화되고 있다. 우리 대학 연구진은 스마트폰·웨어러블의 한계를 넘어, 가정 내 IoT 데이터를 통해 일상 리듬이 흐트러질수록 정신건강이 악화되는 핵심 신호임을 밝혀냈다. 이번 연구는 개인 맞춤형 정신건강 관리 시스템 개발의 기반이 될 것으로 기대된다.
우리 대학은 전산학부 이의진 교수 연구팀이 가정 내 사물인터넷(IoT) 센서 데이터를 활용해 개인의 정신건강 상태를 정밀하게 추적할 수 있는 가능성을 입증했다고 21일 밝혔다.
정신건강 관리를 위해선 자신의 상태를 꾸준히 파악하는 것이 중요하지만, 기존의 스마트폰이나 웨어러블 기반 추적 방식은 사용자가 기기를 착용하거나 소지하지 않는 집 안에서는 데이터가 누락되는 한계가 있었다.
이에 연구팀은 가정 내 환경 데이터에 주목했다. 청년층 1인 가구 20세대를 대상으로 4주간 실증 연구를 진행하며, 가전제품과 수면 매트, 움직임 센서 등을 설치해 IoT 데이터를 수집하고, 스마트폰·웨어러블 데이터와 함께 분석했다.
그 결과, IoT 데이터를 함께 활용할 때 정신건강의 변화를 기존 방식보다 훨씬 정확하게 포착할 수 있음이 확인됐다. 예를 들어 수면 시간 감소는 우울·불안·스트레스 수준 증가와 밀접하게 연관됐으며, 실내 온도 상승 또한 불안 및 우울과의 상관관계를 보였다.
참가자들의 행동 패턴은 스트레스 상황에서 냉장고 사용이 늘어나는 ‘폭식형’, 활동량이 급감하는 ‘무기력형’ 등으로 다양했지만, 공통적으로 생활 패턴이 불규칙할수록 정신건강이 악화되는 경향이 뚜렷하게 나타났다.
특정 행동의 빈도보다 일상 패턴의 변동성이 더 중요한 요인으로 확인됐으며, 이는 규칙적인 생활이 정신건강 유지에 핵심적임을 시사한다.
연구 참여자들이 자신의 생활 데이터를 시각화 소프트웨어를 통해 확인한 결과 사생활 침해에 대한 우려보다, 데이터가 정신건강 이해에 실질적인 도움이 된다는 인식을 갖게 되었다. 이로 인해 연구 수용성과 참여 만족도가 크게 향상됐다.
이의진 교수는 “이번 연구는 가정 내 IoT 데이터가 개인의 생활 맥락 속에서 정신건강을 이해하는 중요한 단서가 될 수 있음을 보여주었다”며, “향후 AI를 활용해 개인별 생활 패턴을 예측하고 맞춤형 코칭이 가능한 원격 의료 시스템 개발로 발전시킬 계획”이라고 밝혔다.
이번 연구에는 고영지 박사과정 학생이 제 1저자로 참여했으며, 연구결과는 인간-컴퓨터 상호작용(HCI) 분야의 저명한 국제 학술지인 ACM 인터랙티브, 모바일, 웨어러블 및 유비쿼터스 기술 논문집(Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies)에 9월호에 게재되었다.
※ Harnessing Home IoT for Self-tracking Emotional Wellbeing: Behavioral Patterns, Self-Reflection, and Privacy Concerns DOI: https://dl.acm.org/doi/10.1145/3749485
※ 고영지(KAIST, 1저자), 이찬희 (KAIST, 2저자), 정은기(KAIST, 3저자), 이현수(KAIST, 교신저자), 이의진(KAIST, 교신저자)
한편 이번 연구는 LG전자-KAIST 디지털 헬스케어 연구센터와 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행됐다.
트랜스포머의 지능과 맘바의 효율 합한 AI 반도체 두뇌 개발
최근 인공지능(AI) 모델이 길고 복잡한 문장을 이해하고 처리하는 능력이 커지면서, 연산 속도와 메모리 효율을 동시에 높일 수 있는 새로운 반도체 기술의 필요성이 커지고 있다. 이런 가운데 우리 대학 ·국제연구진이 거대언어모델(LLM)의 추론 속도는 4배 높이면서 전력 소비는 2.2배 줄인 트랜스포머(Transformer)와 맘바(Mamba) 하이브리드 구조 기반의 AI 반도체 핵심 두뇌 기술을 세계 최초로 메모리 내부에서 직접 연산이 가능한 형태로 구현하는 데 성공했다.
우리 대학은 박종세 교수 연구팀이 미국 조지아 공과대학교(Georgia Institute of Technology) 및 스웨덴 웁살라 대학교(Uppsala University)와 공동연구를 통해, 차세대 인공지능 모델의 두뇌 역할을 하는 ‘AI 메모리 반도체(PIM, Processing-in-Memory)’ 기반 기술 ‘PIMBA’를 개발했다고 17일 밝혔다.
현재 ChatGPT, GPT-4, Claude, Gemini, Llama 등 LLM은 모든 단어를 동시에 보는 ‘트랜스포머(Transformer)’ 두뇌 구조를 기반으로 작동한다. 이에 따라, AI 모델이 커지고 처리 문장이 길어질수록 연산량과 메모리 요구량이 급증해, 속도 저하와 에너지 소모가 주요 문제로 지적돼 왔다.
이런 트랜스포머 문제점을 보완하기 위해 최근 제시된 순차형 기억형 두뇌인 ‘맘바(Mamba)’ 구조는 시간의 흐름에 따라 정보를 처리하는 방식을 도입해 효율을 높였지만, 여전히 메모리 병목 현상(memory bottleneck)과 전력 소모 한계가 남아 있었다.
박종세 교수 연구팀은 트랜스포머와 맘바의 장점을 결합한 ‘트랜스포머–맘바 하이브리드 모델’의 성능을 극대화하기 위해, 연산을 메모리 내부에서 직접 수행하는 새로운 반도체 구조 ‘PIMBA’를 설계했다.
기존 GPU 기반 시스템은 데이터를 메모리 밖으로 옮겨 연산을 수행하지만, PIMBA는 데이터를 옮기지 않고 저장장치 내부에서 바로 계산을 수행한다. 이로써 데이터 이동 시간을 최소화하고 전력 소모를 크게 줄일 수 있다.
그 결과, 실제 실험에서 PIMBA는 기존 GPU 시스템 대비 처리 성능이 최대 4.1배 향상되었고, 에너지 소비는 평균 2.2배 감소하는 성과를 보였다.
연구 성과는 오는 10월 20일 서울에서 열리는 세계적 컴퓨터 구조 학술대회 ‘제58회 국제 마이크로아키텍처 심포지엄(MICRO 2025)’에서 발표될 예정이며, 앞서 ‘제31회 삼성휴먼테크 논문대상’ 금상을 수상해 우수성을 인정받았다.
※논문명: Pimba: A Processing-in-Memory Acceleration for Post-Transformer Large Language Model Serving, DOI: 10.1145/3725843.3756121
이번 연구는 정보통신기획평가원(IITP), 인공지능반도체대학원 지원사업, 그리고 과학기술정보통신부와 정보통신기획평가원의 ICT R&D 프로그램의 일환으로 한국전자통신연구원(ETRI)의 지원을 받아 수행되었으며, EDA 툴은 반도체설계교육센터(IDEC)의 지원을 받았다.
이태원 참사 예방 AI 군중밀집 예측 기술 나왔다
이태원 참사와 같은 다중밀집사고를 예방하려면 단순 인원수 파악을 넘어 인파의 유입·이동 경로를 실시간으로 감지하는 기술이 필요하다. 우리 대학 연구진이 군중 밀집 예측 신기술을 개발하는 데 성공했다. 이제 대규모 인파가 모이는 축제·행사, 도심 교통 혼잡 완화뿐 아니라 감염병 확산 대응 등에도 활용될 수 있다.
우리 대학 전산학부 이재길 교수 연구팀이 군중 밀집 상황을 더 정확하게 예측할 수 있는 새로운 인공지능 기술을 개발했다고 17일 밝혔다.
군중이 모이는 양상은 단순히 인원수 증감으로만 설명되지 않는다. 같은 인원이라도 어디서 유입되고 어느 방향으로 빠져나가는지에 따라 위험 수준이 달라진다.
이재길 교수팀은 이러한 움직임을 ‘시간에 따라 변하는 그래프(time-varying graph)’라는 개념으로 표현했다. 즉, 특정 지역에 몇 명이 있는지(정점 정보)와 지역 간 인구 흐름이 어떤지(간선 정보)를 동시에 분석해야만 정확한 예측이 가능하다는 것이다.
반면 지금까지의 대부분 연구는 한 가지 정보만 이용했다. ‘현재 몇 명이 모여있나?’ 혹은 ‘어느 경로로 사람들이 몰려가고 있나?’에만 집중했던 것이다. 하지만 연구팀은 두 가지를 결합해야만 진짜 위험 신호를 잡아낼 수 있다고 강조했다.
예를 들어, 특정 골목 A의 밀집도가 급증하는 현상은 단순히 ‘현재 인원’만으로는 예측하기 어렵다. 그러나 인근 지역 B에서 계속해서 A 방향으로 인파가 몰려오는 흐름(간선 정보)을 함께 보면, ‘곧 A 지역이 위험하다’는 신호를 미리 포착할 수 있다.
연구팀은 이를 위해 ‘바이모달 학습(bi-modal learning)’ 방식을 개발했다. 이는 인구수(정점 정보)와 인구 흐름(간선 정보)을 동시에 고려하면서, 공간적 관계(어느 지역끼리 연결돼 있는지)와 시간적 변화(언제, 어떻게 이동이 발생하는지)를 함께 학습하는 기술이다.
특히 연구팀은 3차원 대조 학습(3D contrastive learning) 기법을 도입했다. 즉, 2차원 공간(지리) 정보뿐만 아니라 시간 정보를 더해 모두 3차원 관계성을 학습하고자 했다. 이를 통해 인공지능이 단순히 ‘지금 인구가 많은지, 적은지’가 아니라 ‘시간에 따라 어떤 패턴으로 밀집이 진행하고 있는지’를 읽어낼 수 있게 됐다. 그 결과, 기존보다 훨씬 더 정확하게 혼잡 발생 장소와 시점을 예측할 수 있다.
연구팀은 서울·부산·대구 지하철과 뉴욕 교통 데이터, 한국·뉴욕의 코로나19 확진자 수 등 실세계 데이터를 직접 수집·가공해 연구용 데이터셋 6종을 구축하고 공개했다.
제안 기술을 검증한 결과, 기존 최신 방법 대비 최대 76.1% 높은 예측 정확도를 기록하며 세계 최고 수준의 성능을 입증했다.
이재길 교수는 “사회적 파급력을 낼 수 있는 기술 개발이 중요하다”며 “이번 기술이 대형 행사 인파 관리, 도심 교통 혼잡 완화, 감염병 확산 억제 등 일상 속 안전을 지키는 데 크게 기여하길 바란다”고 말했다.
이번 연구에는 KAIST 전산학부 남영은 박사과정 학생이 제1 저자로, 나지혜 박사과정 학생이 공저자로 참여했다. 연구 성과는 데이터마이닝 분야 최고 권위 국제학술대회인 ‘지식발견및데이터마이닝학회(KDD) 2025’에서 지난 8월 발표됐다.
※ 논문명: Bi-Modal Learning for Networked Time Series
※ DOI: https://doi.org/10.1145/3711896.3736856
한편, 이 기술은 중견연구 과제(RS-2023-NR077002, 인공지능 및 모빌리티 빅데이터 기반 군중관리 시스템 핵심기술 연구)와 사람중심인공지능핵심원천기술개발 과제(RS-2022-II220157, 강건하고 공정하며 확장 가능한 데이터 중심의 연속 학습)의 연구성과이다.
세계 최고 DB 통합기술로 진짜 똑똑한 AI 에이전트 현실로
기업들은 오랫동안 데이터를 관리하는 데 관계형 데이터베이스(DB)를 써왔다. 하지만 거대 AI 모델 활용이 늘면서, 이제는 그래프 DB와의 통합 운영이 요구된다. 그러나 이 과정에서 비용 부담, 데이터 불일치, 복합 질의 처리의 어려움 같은 한계가 드러난다. 우리 연구진은 이 같은 문제를 단번에 해결할 수 있는 차세대 그래프-관계형 DB 시스템 개발에 성공했으며, 곧바로 산업 현장에 적용될 것으로 기대된다. 이 기술이 적용되면 AI는 단순 검색을 넘어 복잡한 연결 관계까지 실시간으로 추론할 수 있어, 한층 똑똑한 AI 서비스 구현이 가능해질 것이다.
우리 대학 전산학부 김민수 교수 연구팀이 관계형 DB와 그래프 DB를 완전 통합하여 그래프-관계형 질의를 한층 효율적으로 실행할 수 있는 새로운 DB 시스템 ‘키마이라(이하 Chimera)’를 개발했다고 8일 밝혔다. Chimera는 국제 성능 표준 벤치마크에서 기존 시스템 대비 최소 4배에서 최대 280배 빠른 질의 처리 성능을 입증하며 세계 최고 수준을 기록했다.
기존 관계형 DB와 달리, 그래프 DB는 데이터를 정점(노드)과 간선(연결선)으로 표현하는 구조를 가지고 있어 사람·사건·장소·시간처럼 복잡하게 얽힌 정보를 분석하고 추론하는 데 강점을 지닌다. 이러한 특징 덕분에 최근에는 AI 에이전트, SNS, 금융, 전자상거래 등 다양한 분야에서 활용이 빠르게 확산되고 있다.
이와 함께 관계형 DB와 그래프 DB 간의 복합 질의 처리 수요가 커지면서, 관계형 질의 언어(SQL)에 그래프 질의 기능을 확장한 신규 표준 언어 ‘SQL/PGQ’도 제안됐다.
SQL/PGQ는 기존 데이터베이스 언어(SQL)에 그래프 탐색 기능을 추가한 새로운 표준 언어로, 표(테이블) 형태의 데이터와 사람·사건·장소 등 연결 관계 정보를 한 번에 질의(검색)할 수 있도록 설계됐다. 이를 활용하면 ‘이 사람의 친구의 친구가 어느 회사에 다니는가’와 같은 복잡한 관계도 기존보다 훨씬 간단하게 검색할 수 있다.
문제는 지금까지의 접근 방식이 그래프 탐색을 억지로 조인 연산으로 흉내 내거나, 메모리에 그래프 뷰(view)를 미리 구성해 처리하는 방법에 의존했다는 점이다. 전자의 경우 탐색 단계가 깊어질수록 성능이 급격히 떨어지고, 후자의 경우 데이터 규모가 조금만 커져도 메모리 부족으로 실행이 실패한다. 또 원본 데이터 변경이 뷰에 즉시 반영되지 않아 데이터 최신성이 떨어지고, 관계형 결과와 그래프 결과를 따로 결합해야 하는 비효율이 뒤따랐다.
우리 대학 연구팀이 개발한 ‘Chimera(키마이라)’는 이러한 한계를 근본적으로 해결했다. 연구팀은 데이터베이스의 저장 계층과 질의 처리 계층을 모두 새롭게 설계했다.
연구팀은 우선 그래프 전용 저장소와 관계형 데이터 저장소를 함께 운영하는 ‘듀얼 스토어 구조’를 도입했다. 여기에 그래프 탐색과 관계형 연산을 동시에 처리하는 ‘탐색-조인 연산자’를 적용해, 복잡한 연산을 단일 체계에서 효율적으로 실행할 수 있도록 했다. 덕분에 Chimera는 데이터 저장부터 질의 처리까지 전 과정을 하나로 통합한 세계 최초의 그래프-관계형 DB 시스템으로 자리매김했다.
그 결과, 국제 성능 표준 벤치마크인 ‘LDBC Social Network Benchmark(SNB)’에서 기존 시스템 대비 최소 4배에서 최대 280배 빠른 성능을 기록하며 세계 최고 수준을 입증했다.
그래프 데이터의 규모가 아무리 커져도 메모리 부족으로 인한 질의 실패가 발생하지 않으며, 뷰를 사용하지 않기 때문에 데이터 최신성 측면에서도 지연 문제가 없다.
김민수 교수는 “데이터 간 연결 관계가 갈수록 복잡해지는 만큼, 그래프와 관계형 DB를 아우르는 통합 기술의 필요성이 커지고 있다”며 “Chimera는 이 문제를 근본적으로 해결한 기술로, 앞으로 AI 에이전트, 금융, 전자상거래 등 다양한 산업에서 널리 쓰일 것으로 기대한다”고 밝혔다.
이번 연구에는 전산학부 이건호 박사과정이 제1저자로, 김민수 교수의 창업기업 ㈜그래파이의 박정호 엔지니어가 제2저자로 참여했으며, 김 교수가 교신저자를 맡았다.
연구 성과는 지난 9월 1일, 세계적 권위의 데이터베이스 분야 국제학술대회 VLDB에서 발표됐다. 특히 새롭게 개발된 Chimera 기술은 ㈜그래파이가 출시 예정인 벡터-그래프-관계형 DB 시스템 ‘AkasicDB’에 적용돼, ‘RAG 기반 고성능 AI 에이전트(검색 능력을 갖춘 똑똑한 AI 비서)’ 구현을 위한 핵심 기술로 즉각적인 산업적 파급력이 기대된다.
※ 논문제목: Chimera: A System Design of Dual Storage and Traversal-Join Unified Query Processing for SQL/PGQ
※ DOI: https://dl.acm.org/doi/10.14778/3705829.3705845
한편, 이번 연구는 과기정통부 IITP SW스타랩과 한국연구재단 중견과제의 지원을 받아 수행됐다.