< (왼쪽부터) 전기및전자공학부 윤영규 교수, 한승재 석박사통합과정, 정학천 석박사통합과정, 최신현 교수 >
기존 컴퓨터 시스템은 데이터 처리 장치와 저장 장치가 분리돼 있어, 인공지능처럼 복잡한 데이터를 처리하기에는 효율적이지 않다. KAIST 연구팀은 우리 뇌의 정보 처리 방식과 유사한 멤리스터 기반 통합 시스템을 개발했다. 이제 원격 클라우드 서버에 의존하지 않고 의심스러운 활동을 즉시 인식하는 스마트 보안 카메라부터 건강 데이터를 실시간으로 분석할 수 있는 의료기기까지 다양한 분야에 적용될 수 있게 되었다.우리 대학 전기및전자공학부 최신현 교수, 윤영규 교수 공동연구팀이 스스로 학습하고 오류를 수정할 수 있는 차세대 뉴로모픽 반도체 기반 초소형 컴퓨팅 칩을 개발했다고 17일 밝혔다.
연구팀이 개발한 이 컴퓨팅 칩의 특별한 점은 기존 뉴로모픽 소자에서 해결이 어려웠던 비이상적 특성에서 발생하는 오류를 스스로 학습하고 수정할 수 있다는 것이다. 예를 들어, 영상 스트림을 처리할 때 칩은 움직이는 물체를 배경에서 자동으로 분리하는 법을 학습하며 시간이 지날수록 이 작업을 더 잘 수행하게 된다.
이러한 자가 학습 능력은 실시간 영상 처리에서 이상적인 컴퓨터 시뮬레이션에 견줄 만한 정확도를 달성하며 입증됐다. 연구팀의 주요성과는 뇌와 유사한 구성 요소의 개발을 넘어, 신뢰성과 실용성을 모두 갖춘 시스템으로 완성한 것에 있다.
< 그림 1. 높은 신뢰성을 가진 셀렉터리스(selector-less) 32×32 멤리스터 크로스바 어레이가 탑재된 컴퓨팅 칩의 주사 전자 현미경(SEM) 이미지 (왼쪽). 실시간 인공지능 구현을 위해 개발된 하드웨어 시스템 (오른쪽) >
연구팀은 세계 최초로 즉각적인 환경 변화에 적응할 수 있는 멤리스터 기반 통합 시스템을 개발하며, 기존 기술의 한계를 극복하는 혁신적인 해결책을 제시했다.
이 혁신의 핵심에는 멤리스터(memristor)*라고 불리는 차세대 반도체 소자가 있다. 이 소자의 가변 저항 특성은 신경망의 시냅스 역할을 대체할 수 있게 되고, 이를 활용해 우리 뇌세포처럼 데이터 저장 및 연산을 동시에 수행할 수 있다.
*멤리스터: 메모리(memory)와 저항(resistor)의 합성어로 두 단자 사이로 과거에 흐른 전하량과 방향에 따라 저항값이 결정되는 차세대 전기소자
연구팀은 저항 변화를 정밀하게 제어할 수 있는 고신뢰성 멤리스터를 설계하고, 자가 학습을 통해 복잡한 보정 과정을 배제한 효율적인 시스템을 개발했다. 이번 연구는 실시간 학습과 추론을 지원하는 차세대 뉴로모픽 반도체 기반 통합 시스템의 상용화 가능성을 실험적으로 검증했다는 점에서 중요한 의미를 가진다.
< 그림 2. 멤리스터 소자의 비이상적 특징이 포함된 영상의 배경 및 전경 분리 결과 (왼쪽). 본 연구진이 개발한 멤리스터 컴퓨팅 칩을 통한 기기 내 학습을 통한 실시간 영상 분리 결과 (오른쪽) >
이 기술은 일상적인 기기에서 인공지능을 사용하는 방식을 혁신하여 AI 작업 처리를 위해 원격 클라우드 서버에 의존하지 않고 로컬에서 처리할 수 있게 되어, 더 빠르고 사생활 보호가 강화되며 에너지 효율성이 높아질 것이다.
이 기술 개발을 주도한 KAIST 정학천 연구원과 한승재 연구원은 “이 시스템은 책상과 자료 캐비닛을 오가며 일하는 대신 모든 것이 손이 닿는 곳에 있는 스마트 작업 공간과 같다. 이는 모든 것이 한 곳에서 처리돼 매우 효율적인 우리 뇌의 정보 처리 방식과 유사하다”고 설명했다.
전기및전자공학부 정학천 석박통합과정생과 한승재 석박사통합과정생이 제 1저자로 연구에 참여했으며 국제 학술지 `네이처 일렉트로닉스 (Nature Electronics)'에 2025년 1월 8일 자로 온라인 게재됐다.
(논문 제목: Self-supervised video processing with self-calibration on an analogue computing platform based on a selector-less memristor array, https://doi.org/10.1038/s41928-024-01318-6)
이번 연구는 한국연구재단의 차세대지능형반도체기술개발사업, 우수신진연구사업, PIM인공지능반도체핵심기술개발사업, 정보통신기획평가원의 한국전자통신연구원연구개발지원사업의 지원을 받아 수행됐다.
우리 대학 화학과 박정영 석좌교수, 신소재공학과 정연식 교수, 그리고 KIST 김동훈 박사 공동 연구팀이 반도체 기술을 활용하여 촉매 성능에 특정 변인이 미치는 영향을 정량적으로 분석할 수 있는 새로운 플랫폼을 성공적으로 구현했다. 이를 통해 대표적인 다경로 화학 반응인 메탄올 산화 반응에서 메틸 포르메이트 선택성을 크게 향상시켰으며, 이번 연구는 차세대 고성능 이종 촉매 개발을 앞당기는 데 기여할 것으로 기대된다고 1일 밝혔다. 다경로 화학 반응에서는 반응성과 선택성의 상충 관계로 인해 특정 생성물의 선택성을 높이는 것이 어려운 문제로 남아 있다. 특히, 메탄올 산화 반응에서는 이산화탄소와 더불어 고부가 가치 생성물인 메틸 포르메이트가 생성되므로, 메틸 포르메이트의 선택성을 극대화하는 것이 중요하다. 그러나 기존 불규칙적인 구조의 이종 촉매에서는 금속-산화물 계면 밀도를 비롯한 여러 변인이 동시에 촉매 성능에 영향을 미치기 때문에 특정 변수가 개별적으로 미치는 영향을 분
2025-04-01우리 대학 인공지능반도체대학원 주최로 20일(목) 오전 대전 오노마 호텔에서 ‘제2회 한국인공지능시스템포럼(KAISF) 조찬 강연회’가 성황리에 개최되었다. 본 행사는 인공지능(AI) 기술의 최신 동향과 혁신 및 응용, 특히 AI-X(AI-특정산업)에 대해 다양한 분야의 전문가들이 모여 심도 있는 논의를 진행하는 자리로 LG AI 연구원의 최정규 상무가 LLM(거대언어모델)에 대해 개발에 대해 발표한다. 조찬 회의에는 총 65명의 AI 전문가가 참석하였으며, LG AI 연구원에서 최근 개발하고 공개한 대규모 언어 모델인 ‘엑사원(EXAONE)에 대해 Driving the Future of AI Innovation’라는 주제로 발제 발표가 진행되었다. 최정규 LG AI 연구원 상무는 LG 엑사원의 현재 연구 현황과 향후 글로벌 AI 시장에서의 계획을 발표하였으며 특히 최근 AI 생태계를 뜨겁게 달구고 있는 ‘딥시크(Deep
2025-03-20최근 챗GPT, 딥시크(DeepSeek) 등 초거대 인공지능(AI) 모델이 다양한 분야에서 활용되며 주목받고 있다. 이러한 대형 언어 모델은 수만 개의 데이터센터용 GPU를 갖춘 대규모 분산 시스템에서 학습되는데, GPT-4의 경우 모델을 학습하는 데 소모되는 비용은 약 1,400억 원에 육박하는 것으로 추산된다. 한국 연구진이 GPU 사용률을 높이고 학습 비용을 절감할 수 있는 최적의 병렬화 구성을 도출하도록 돕는 기술을 개발했다. 우리 대학 전기및전자공학부 유민수 교수 연구팀은 삼성전자 삼성종합기술원과 공동연구를 통해, 대규모 분산 시스템에서 대형 언어 모델(LLM)의 학습 시간을 예측하고 최적화할 수 있는 시뮬레이션 프레임워크(이하 vTrain)를 개발했다고 13일 밝혔다. 대형 언어 모델 학습 효율을 높이려면 최적의 분산 학습 전략을 찾는 것이 필수적이다. 그러나 가능한 전략의 경우의 수가 방대할 뿐 아니라 실제 환경에서 각 전략의 성능을 테스트하는 데는 막대한 비용과
2025-03-13뇌의 맥락 추론 방식이 챗지피티 같은 대규모 인공지능 모델과 어떻게 다를까? 우리 연구진이 ‘뇌처럼 생각하는 인공지능’기술로서 과도한 자신감을 보이는 인공지능의 할루시네이션(Hallucination) 현상을 완화하거나 인간이나 동물과 유사하게 스스로 가설을 세워 검증하는 신개념 인공지능 모델을 개발하는데 성공했다. 우리 대학 뇌인지과학과 이상완 교수(신경과학-인공지능 융합연구센터장)와 생명과학과 정민환 교수(IBS 시냅스 뇌질환 연구단 부연구단장) 연구팀이 동물이 가설을 세워 일관된 행동 전략을 유지함과 동시에, 본인의 가설을 스스로 의심하고 검증하면서 상황에 빠르게 적응하는 새로운 강화학습 이론을 제시하고 뇌과학적 원리를 규명했다고 20일 밝혔다. 현재 상황에 맞게 행동의 일관성과 유동성 사이의 적절한 균형점을 찾아가는 문제를 ‘안정성-유동성의 딜레마(Stability-flexibility dilemma)’라 한다. 이를 위해서
2025-02-27최근 인공지능 기술의 발전으로 챗GPT와 같은 대형 언어 모델(이하 LLM)은 단순한 챗봇을 넘어 자율적인 에이전트로 발전하고 있다. 구글(Google)은 최근 인공지능 기술을 무기나 감시에 활용하지 않겠다는 기존의 약속을 철회해 인공지능 악용 가능성에 대한 논란이 불거진 점을 상기시키며, 연구진이 LLM 에이전트가 개인정보 수집 및 피싱 공격 등에 활용될 수 있음을 입증했다. 우리 대학 전기및전자공학부 신승원 교수, 김재철 AI 대학원 이기민 교수 공동연구팀이 실제 환경에서 LLM이 사이버 공격에 악용될 가능성을 실험적으로 규명했다고 25일 밝혔다. 현재 OpenAI, 구글 AI 등과 같은 상용 LLM 서비스는 LLM이 사이버 공격에 사용되는 것을 막기 위한 방어 기법을 자체적으로 탑재하고 있다. 그러나 연구팀의 실험 결과, 이러한 방어 기법이 존재함에도 불구하고 쉽게 우회해 악의적인 사이버 공격을 수행할 수 있음이 확인됐다. 기존의 공격자들이 시간과 노력이 많이
2025-02-24