< (왼쪽부터) KAIST 전산학부 안성진 교수, KAIST 전산학부 김영빈 석사과정, 럿거스 대학교 가텀 싱 박사과정, KAIST 전산학부 박준영 석사과정, 딥마인드 책임 연구원 찰라 걸셔(현 EPFL 교수) >
‘노란 포도'나 `보라색 바나나'와 같이 본 적 없는 시각 개념을 이해하고 상상하는 인공지능 능력 구현이 가능해졌다.
우리 대학 전산학부 안성진 교수 연구팀이 구글 딥마인드 및 미국 럿거스 대학교와의 국제 공동 연구를 통해 시각적 지식을 체계적으로 조합해 새로운 개념을 이해하는 인공지능 새로운 모델과 프로그램을 수행하는 벤치마크를 개발했다고 30일 밝혔다.
인간은 `보라색 포도'와 `노란 바나나' 같은 개념을 학습하고, 이를 분리한 뒤 재조합해 `노란 포도'나 `보라색 바나나'와 같이 본 적 없는 개념을 상상하는 능력이 있다. 이런 능력은 체계적 일반화 혹은 조합적 일반화라고 불리며, 범용 인공지능을 구현하는 데 있어 핵심적인 요소로 여겨진다.
체계적 일반화 문제는 1988년 미국의 저명한 인지과학자 제리 포더(Jerry Fodor)와 제논 필리쉰(Zenon Pylyshyn)이 인공신경망이 이 문제를 해결할 수 없다고 주장한 이후, 35년 동안 인공지능 딥러닝 분야에서 큰 도전 과제로 남아 있다. 이 문제는 언어뿐만 아니라 시각 정보에서도 발생하지만, 지금까지는 주로 언어의 체계적 일반화에만 초점이 맞춰져 있었고, 시각 정보에 관한 연구는 상대적으로 부족했다.
< 그림 1. 안성진 교수 연구팀은 장면을 구성하는 물체들을 몇 가지 특성으로 분해한 뒤, 해당 특성을 정해진 규칙 아래에서 재조합하여 새로운 이미지를 생성하는 방식을 이용하였다. >
안성진 교수가 이끄는 국제 공동 연구팀은 이러한 공백을 메우고자 시각 정보에 대한 체계적 일반화를 연구할 수 있는 벤치마크를 개발했다. 시각 정보는 언어와는 달리 명확한 `단어'나 `토큰'의 구조가 없어, 이 구조를 학습하고 체계적 일반화를 달성하는 것이 큰 도전이다.
연구를 주도한 안성진 교수는 “시각 정보의 체계적 일반화가 범용 인공지능을 달성하기 위해 필수적인 능력이며 이 연구를 통해 인공지능의 추론능력과 상상능력 관련 분야의 발전을 가속할 것으로 기대한다”고 말했다.
또한, 딥마인드의 책임 연구원으로 연구에 참여한 연구원이자 현재 스위스 로잔연방공과대학교(EPFL)의 찰라 걸셔(Caglar Gulcehre) 교수는 “체계적 일반화가 가능해지면 현재보다 훨씬 적은 데이터로 더 높은 성능을 낼 수 있게 될 것이다”라고 전했다.
이번 연구는 12월 10일부터 16일까지 미국 뉴올리언스에서 열리는 제37회 신경정보처리학회(NeurIPS)에서 발표될 예정이다.
관련논문: “Imagine the Unseen World: A Benchmark for Systematic Generalization in Visual World Models”, Yeongbin Kim, Gautam Singh, Junyeong Park, Caglar Gulcehre, Sungjin Ahn, NeurIPS 23
우리 대학 인공지능반도체대학원 주최로 20일(목) 오전 대전 오노마 호텔에서 ‘제2회 한국인공지능시스템포럼(KAISF) 조찬 강연회’가 성황리에 개최되었다. 본 행사는 인공지능(AI) 기술의 최신 동향과 혁신 및 응용, 특히 AI-X(AI-특정산업)에 대해 다양한 분야의 전문가들이 모여 심도 있는 논의를 진행하는 자리로 LG AI 연구원의 최정규 상무가 LLM(거대언어모델)에 대해 개발에 대해 발표한다. 조찬 회의에는 총 65명의 AI 전문가가 참석하였으며, LG AI 연구원에서 최근 개발하고 공개한 대규모 언어 모델인 ‘엑사원(EXAONE)에 대해 Driving the Future of AI Innovation’라는 주제로 발제 발표가 진행되었다. 최정규 LG AI 연구원 상무는 LG 엑사원의 현재 연구 현황과 향후 글로벌 AI 시장에서의 계획을 발표하였으며 특히 최근 AI 생태계를 뜨겁게 달구고 있는 ‘딥시크(Deep
2025-03-20최근 챗GPT, 딥시크(DeepSeek) 등 초거대 인공지능(AI) 모델이 다양한 분야에서 활용되며 주목받고 있다. 이러한 대형 언어 모델은 수만 개의 데이터센터용 GPU를 갖춘 대규모 분산 시스템에서 학습되는데, GPT-4의 경우 모델을 학습하는 데 소모되는 비용은 약 1,400억 원에 육박하는 것으로 추산된다. 한국 연구진이 GPU 사용률을 높이고 학습 비용을 절감할 수 있는 최적의 병렬화 구성을 도출하도록 돕는 기술을 개발했다. 우리 대학 전기및전자공학부 유민수 교수 연구팀은 삼성전자 삼성종합기술원과 공동연구를 통해, 대규모 분산 시스템에서 대형 언어 모델(LLM)의 학습 시간을 예측하고 최적화할 수 있는 시뮬레이션 프레임워크(이하 vTrain)를 개발했다고 13일 밝혔다. 대형 언어 모델 학습 효율을 높이려면 최적의 분산 학습 전략을 찾는 것이 필수적이다. 그러나 가능한 전략의 경우의 수가 방대할 뿐 아니라 실제 환경에서 각 전략의 성능을 테스트하는 데는 막대한 비용과
2025-03-13뇌의 맥락 추론 방식이 챗지피티 같은 대규모 인공지능 모델과 어떻게 다를까? 우리 연구진이 ‘뇌처럼 생각하는 인공지능’기술로서 과도한 자신감을 보이는 인공지능의 할루시네이션(Hallucination) 현상을 완화하거나 인간이나 동물과 유사하게 스스로 가설을 세워 검증하는 신개념 인공지능 모델을 개발하는데 성공했다. 우리 대학 뇌인지과학과 이상완 교수(신경과학-인공지능 융합연구센터장)와 생명과학과 정민환 교수(IBS 시냅스 뇌질환 연구단 부연구단장) 연구팀이 동물이 가설을 세워 일관된 행동 전략을 유지함과 동시에, 본인의 가설을 스스로 의심하고 검증하면서 상황에 빠르게 적응하는 새로운 강화학습 이론을 제시하고 뇌과학적 원리를 규명했다고 20일 밝혔다. 현재 상황에 맞게 행동의 일관성과 유동성 사이의 적절한 균형점을 찾아가는 문제를 ‘안정성-유동성의 딜레마(Stability-flexibility dilemma)’라 한다. 이를 위해서
2025-02-27최근 인공지능 기술의 발전으로 챗GPT와 같은 대형 언어 모델(이하 LLM)은 단순한 챗봇을 넘어 자율적인 에이전트로 발전하고 있다. 구글(Google)은 최근 인공지능 기술을 무기나 감시에 활용하지 않겠다는 기존의 약속을 철회해 인공지능 악용 가능성에 대한 논란이 불거진 점을 상기시키며, 연구진이 LLM 에이전트가 개인정보 수집 및 피싱 공격 등에 활용될 수 있음을 입증했다. 우리 대학 전기및전자공학부 신승원 교수, 김재철 AI 대학원 이기민 교수 공동연구팀이 실제 환경에서 LLM이 사이버 공격에 악용될 가능성을 실험적으로 규명했다고 25일 밝혔다. 현재 OpenAI, 구글 AI 등과 같은 상용 LLM 서비스는 LLM이 사이버 공격에 사용되는 것을 막기 위한 방어 기법을 자체적으로 탑재하고 있다. 그러나 연구팀의 실험 결과, 이러한 방어 기법이 존재함에도 불구하고 쉽게 우회해 악의적인 사이버 공격을 수행할 수 있음이 확인됐다. 기존의 공격자들이 시간과 노력이 많이
2025-02-24우리 대학 기계공학과 이승철 교수 연구팀이 POSTECH 신소재공학과 김형섭 교수 연구팀과 함께 인공지능 기술을 활용해 Ti-6Al-4V 합금의 강도-연성 딜레마를 극복하고 고강도·고연신 금속 제품을 생산해 내는 데 성공했다고 밝혔다. 연구팀이 개발한 인공지능은 3D프린팅 공정변수에 따른 기계적 물성을 정확히 예측하는 동시에 예측의 불확실성 정보를 제공하며 이 두 정보를 활용해 실제 3D프린팅을 진행할 가치가 높은 공정변수를 추천한다. 3D프린팅 기술 중에서도 레이저 분말 베드 융합은 뛰어난 강도 및 생체 적합성으로 유명한 Ti-6Al-4V 합금을 제조하기 위한 혁신적인 기술이다. 그러나 3D프린팅으로 제작된 이 합금은 강도와 연성을 동시에 높이기 어렵다는 문제점이 있다. 3D프린팅의 공정변수와 열처리 조건을 조절해 이를 해결하고자 하는 연구들이 있었지만, 방대한 공정변수 조합들을 실험 및 시뮬레이션으로 탐색하기에는 한계가 있었다. 연구팀이 개발한 능동 학습(Ac
2025-02-21