< 전산학부 안성진 교수 >
우리 대학 전산학부 안성진 교수 연구팀이 미국 럿거스 대학교와 협력하여 트랜스포머 및 재귀신경망 기반의 월드모델을 대체할 차세대 에이전트 월드모델 기술을 세계 최초로 개발했다.
월드모델은 인간의 뇌가 현실 세계의 경험을 바탕으로 환경 모델을 구축하는 과정과 유사하다. 이러한 월드모델을 활용하는 인공지능은 특정 행동의 결과를 미리 시뮬레이션해보고 다양한 가설을 검증할 수 있어, 범용 인공지능의 핵심 구성 요소로 여겨진다.
특히, 로봇이나 자율주행 차량과 같은 인공지능 에이전트는 학습을 위해 여러 가지 행동을 시도해 보아야하는데, 이는 위험성과 고장 가능성을 높인다는 단점을 갖는다. 이에 반해, 월드모델을 갖춘 인공지능은 실세계 상호작용 없이도 상상모델 속에서 학습을 가능케 해 큰 이점을 제공한다.
그러나 월드모델은 자연어처리 등에서 큰 발전을 가능하게 한 트랜스포머와 S4와 같은 새로운 시퀀스 모델링 아키텍처의 적용에 한계가 있었다. 이로 인해, 대부분의 월드모델이 성능과 효율성 면에서 제약이 있는 고전적인 재귀적 신경망에 의존하고 있었고 안성진 교수팀은 작년 세계최초로 트랜스포머 기반의 월드모델을 개발하였으나 추론 계산속도나 메모리능력에서 여전히 개선할 문제를 갖고 있었다.
< 그림 1. 안성진 교수팀이 개발한 S4WM(네번째 열)은 실제(첫번째 열)와 매우 유사한 미래 예측 능력을 제공하는 반면, 기존 재귀적 신경망 기반의 월드모델(두번째 열)이나 트랜스포머에 기반한 월드모델(세번째 열)은 큰 오차를 보인다. >
이러한 문제를 해결하기 위해, 안성진 교수가 이끄는 KAIST와 럿거스 대학교 공동연구팀은 재귀적 신경망과 트랜스포머 기반 월드모델의 단점을 극복한 새로운 월드모델의 개발에 성공했다. 연구팀은 S4 시퀀스 모델에 기반한 S4 World Model (S4WM)을 개발하여, 재귀적 신경망의 최대 단점인 병렬처리가 가능한 시퀀스 학습이 불가능하다는 문제를 해결하였다. 또한, 재귀적 신경망의 장점인 빠른 추론시간을 유지하도록 하여 느린 추론 시간을 제공하는 트랜스포머 기반 월드모델의 단점을 극복했다.
연구를 주도한 안성진 교수는 "병렬 학습과 빠른 추론이 가능한 에이전트 월드모델을 세계 최초로 개발했다ˮ며, 이는 "모델기반 강화학습 능력을 획기적으로 개선해 지능형 로봇, 자율주행 차량, 그리고 자율형 인공지능 에이전트 기술 전반에 비용절감과 성능 향상이 예상된다ˮ고 밝혔다.
이번 연구는 12월 10일부터 16일까지 미국 뉴올리언스에서 열리는 세계 최고 수준의 인공지능 학회인 제37회 신경정보처리학회(NeurIPS)에서 발표될 예정이다.
관련논문: “Facing off World Model Backbones: RNNs, Transformers, and S4”Fei Deng, Junyeong Park, Sungjin Ahn, NeurIPS 23, https://arxiv.org/abs/2307.02064
우리 대학 인공지능반도체대학원 주최로 20일(목) 오전 대전 오노마 호텔에서 ‘제2회 한국인공지능시스템포럼(KAISF) 조찬 강연회’가 성황리에 개최되었다. 본 행사는 인공지능(AI) 기술의 최신 동향과 혁신 및 응용, 특히 AI-X(AI-특정산업)에 대해 다양한 분야의 전문가들이 모여 심도 있는 논의를 진행하는 자리로 LG AI 연구원의 최정규 상무가 LLM(거대언어모델)에 대해 개발에 대해 발표한다. 조찬 회의에는 총 65명의 AI 전문가가 참석하였으며, LG AI 연구원에서 최근 개발하고 공개한 대규모 언어 모델인 ‘엑사원(EXAONE)에 대해 Driving the Future of AI Innovation’라는 주제로 발제 발표가 진행되었다. 최정규 LG AI 연구원 상무는 LG 엑사원의 현재 연구 현황과 향후 글로벌 AI 시장에서의 계획을 발표하였으며 특히 최근 AI 생태계를 뜨겁게 달구고 있는 ‘딥시크(Deep
2025-03-20최근 챗GPT, 딥시크(DeepSeek) 등 초거대 인공지능(AI) 모델이 다양한 분야에서 활용되며 주목받고 있다. 이러한 대형 언어 모델은 수만 개의 데이터센터용 GPU를 갖춘 대규모 분산 시스템에서 학습되는데, GPT-4의 경우 모델을 학습하는 데 소모되는 비용은 약 1,400억 원에 육박하는 것으로 추산된다. 한국 연구진이 GPU 사용률을 높이고 학습 비용을 절감할 수 있는 최적의 병렬화 구성을 도출하도록 돕는 기술을 개발했다. 우리 대학 전기및전자공학부 유민수 교수 연구팀은 삼성전자 삼성종합기술원과 공동연구를 통해, 대규모 분산 시스템에서 대형 언어 모델(LLM)의 학습 시간을 예측하고 최적화할 수 있는 시뮬레이션 프레임워크(이하 vTrain)를 개발했다고 13일 밝혔다. 대형 언어 모델 학습 효율을 높이려면 최적의 분산 학습 전략을 찾는 것이 필수적이다. 그러나 가능한 전략의 경우의 수가 방대할 뿐 아니라 실제 환경에서 각 전략의 성능을 테스트하는 데는 막대한 비용과
2025-03-13뇌의 맥락 추론 방식이 챗지피티 같은 대규모 인공지능 모델과 어떻게 다를까? 우리 연구진이 ‘뇌처럼 생각하는 인공지능’기술로서 과도한 자신감을 보이는 인공지능의 할루시네이션(Hallucination) 현상을 완화하거나 인간이나 동물과 유사하게 스스로 가설을 세워 검증하는 신개념 인공지능 모델을 개발하는데 성공했다. 우리 대학 뇌인지과학과 이상완 교수(신경과학-인공지능 융합연구센터장)와 생명과학과 정민환 교수(IBS 시냅스 뇌질환 연구단 부연구단장) 연구팀이 동물이 가설을 세워 일관된 행동 전략을 유지함과 동시에, 본인의 가설을 스스로 의심하고 검증하면서 상황에 빠르게 적응하는 새로운 강화학습 이론을 제시하고 뇌과학적 원리를 규명했다고 20일 밝혔다. 현재 상황에 맞게 행동의 일관성과 유동성 사이의 적절한 균형점을 찾아가는 문제를 ‘안정성-유동성의 딜레마(Stability-flexibility dilemma)’라 한다. 이를 위해서
2025-02-27최근 인공지능 기술의 발전으로 챗GPT와 같은 대형 언어 모델(이하 LLM)은 단순한 챗봇을 넘어 자율적인 에이전트로 발전하고 있다. 구글(Google)은 최근 인공지능 기술을 무기나 감시에 활용하지 않겠다는 기존의 약속을 철회해 인공지능 악용 가능성에 대한 논란이 불거진 점을 상기시키며, 연구진이 LLM 에이전트가 개인정보 수집 및 피싱 공격 등에 활용될 수 있음을 입증했다. 우리 대학 전기및전자공학부 신승원 교수, 김재철 AI 대학원 이기민 교수 공동연구팀이 실제 환경에서 LLM이 사이버 공격에 악용될 가능성을 실험적으로 규명했다고 25일 밝혔다. 현재 OpenAI, 구글 AI 등과 같은 상용 LLM 서비스는 LLM이 사이버 공격에 사용되는 것을 막기 위한 방어 기법을 자체적으로 탑재하고 있다. 그러나 연구팀의 실험 결과, 이러한 방어 기법이 존재함에도 불구하고 쉽게 우회해 악의적인 사이버 공격을 수행할 수 있음이 확인됐다. 기존의 공격자들이 시간과 노력이 많이
2025-02-24우리 대학 기계공학과 이승철 교수 연구팀이 POSTECH 신소재공학과 김형섭 교수 연구팀과 함께 인공지능 기술을 활용해 Ti-6Al-4V 합금의 강도-연성 딜레마를 극복하고 고강도·고연신 금속 제품을 생산해 내는 데 성공했다고 밝혔다. 연구팀이 개발한 인공지능은 3D프린팅 공정변수에 따른 기계적 물성을 정확히 예측하는 동시에 예측의 불확실성 정보를 제공하며 이 두 정보를 활용해 실제 3D프린팅을 진행할 가치가 높은 공정변수를 추천한다. 3D프린팅 기술 중에서도 레이저 분말 베드 융합은 뛰어난 강도 및 생체 적합성으로 유명한 Ti-6Al-4V 합금을 제조하기 위한 혁신적인 기술이다. 그러나 3D프린팅으로 제작된 이 합금은 강도와 연성을 동시에 높이기 어렵다는 문제점이 있다. 3D프린팅의 공정변수와 열처리 조건을 조절해 이를 해결하고자 하는 연구들이 있었지만, 방대한 공정변수 조합들을 실험 및 시뮬레이션으로 탐색하기에는 한계가 있었다. 연구팀이 개발한 능동 학습(Ac
2025-02-21