-
말하지 않아도 알 수 있다… AI가 포착한 우울증
주요 우울 장애 등 정신건강 질환은 주관적 설문과 면담으로 진단한다. 복합적이고 모호한 ‘우울감’은 우울증 진단의 가장 큰 한계로 꼽혀왔다. 국내 연구진이 AI로 일상행동을 분석해 우울증을 객관적으로 진단하고 치료 효과를 평가하는 기술을 개발하며, 정신질환 진단과 치료의 새로운 해법을 제시했다.
우리 대학은 생명과학과 허원도 석좌교수 연구팀이 동물 모델의 일상적인 행동 패턴을 분석할 수 있는 인공지능(AI) 기술을 개발하고, 이를 통해 일상행동 속에서 성별과 중증도에 따른 우울증 증상을 탐지할 수 있음을 입증했다고 13일 밝혔다.
연구팀은 우울증 환자의 팔다리 움직임, 자세, 표정 등 신체 운동 양상이 일반인과 다르다는 점에 주목했다. 감정과 정서 상태가 운동 능력으로 드러나는 현상인 ‘정신운동(psychomotor)’을 정밀하게 파악하기 위해, 연구팀은 실험동물의 자세와 움직임을 3차원으로 분석해 우울 상태에 따른 미세한 행동 변화를 자동으로 포착할 수 있는 AI 플랫폼‘클로저(CLOSER, Contrastive Learning-based Observer-free analysis of Spontaneous behavior for Ethogram Representation)’를 개발했다.
클로저는 인공지능 기법인 (contrastive learning) 알고리즘을 활용해 행동을 아주 작은 단위로 나눠 분석한다. 이를 통해 사람의 눈으로는 알아차리기 어려운 미세한 행동 변화까지 정확하게 구분해냈다.
연구팀은 이 기술을 활용해 우울증과 가장 유사한 만성 예측 불가능 스트레스(CUS, Chronic Unpredictable Stress) 마우스 모델을 만들고, 행동만으로 일상 속 우울 상태를 구별할 수 있는지를 검증했다. 그 결과, 클로저는 성별과 증상의 심한 정도에 따라 달라지는 우울 상태를 정확히 구분하는 데 성공했다.
사후 분석 결과, 스트레스는 운동 능력 자체보다는 행동의 빈도와 행동 흐름을 바꾸는 데 더 큰 영향을 미친다는 사실이 밝혀졌다.
특히 우울증 모델에서 스트레스에 의해 변화한 행동 음절은 성별에 따라 뚜렷한 차이를 보였다. 예를 들어, 수컷 생쥐에서는 주변을 탐색하거나 회전하는 행동이 감소한 반면, 암컷 생쥐에서는 이러한 행동이 오히려 증가했다. 이러한 일상행동 변화는 스트레스 노출 기간이 길어질수록 더욱 두드러졌다.
또한 연구팀은 우울증의 발생 원인이 행동 패턴에 반영되는지를 확인하기 위해 염증 기반 우울증 모델과 스트레스 호르몬 기반 우울증 모델을 추가로 분석했다.
그 결과, 지속적인 스트레스나 염증으로 우울 상태를 만든 경우에는 일상 행동이 눈에 띄게 달라졌지만, 스트레스 호르몬(콜티코스테론)만 투여한 경우에는 행동 변화가 거의 나타나지 않았다. 이는 일상적인 행동 관찰만으로도 우울증의 원인이나 성별에 따라 서로 다른 상태를 구분할 수 있음을 보여준다.
나아가 연구팀은 실제로 우울증 환자 치료에 사용되거나 임상시험 중인 항우울제가 행동으로 나타나는 우울증 증상에 미치는 영향을 분석했다. 우울증 모델에 항우울제를 투여한 결과, 스트레스로 인해 변화했던 행동 음절(기본적인 행동 단위)과 행동 문법(행동의 흐름과 패턴)이 부분적으로 회복되는 것을 확인했다.
특히 항우울제마다 사람의 행동을 회복시키는 방식이 서로 다르다는 것을 발견했다. 연구진은 행동만 살펴봐도 어떤 약이 더 잘 듣는지 구분할 수 있는 ‘행동 지문(behavioral fingerprint)’을 찾아냈다. 이는 앞으로 사람마다 행동 변화를 분석해 가장 잘 맞는 항우울제를 골라주는 맞춤 치료로 이어질 수 있음을 뜻한다.
허원도 석좌교수는 “이번 연구는 인공지능 기반 일상행동 분석 플랫폼을 우울증 진단에 접목해, 우울장애의 맞춤형 진단과 치료 평가를 가능하게 하는 전임상 프레임워크를 세계 최초로 구현한 성과”라며, “향후 정신질환 환자 맞춤형 치료제 개발과 정밀의료로 이어질 중요한 토대를 마련했다”고 말했다.
KAIST 생명과학과 오현식 박사과정이 제 1저자로 주도한 이번 연구는 국제 학술지 네이처 커뮤니케이션즈(Nature Communications) 온라인판에 2025년 12월 30일 게재됐다.
※논문명: AI-driven decoding of naturalistic behaviors enables tailored detection of depressive-like behavior in mice, DOI: https://doi.org/10.1038/s41467-025-67559-x
한편, 본 연구는 과학기술정보통신부 한계도전 R&D프로젝트, 한국연구재단 기초연구사업 (중견연구), 보건복지부·한국보건산업진흥원, 삼성미래기술육성재단의 지원을 받아 수행됐다.
2026.01.13
조회수 429
-
AI로 오랜 난제인 유전자 기능 규명 전략 제시
“유전자는 알지만 기능은 모른다”는 미생물 연구의 오랜 난제를 해결하기 위해, 공동연구진이 인공지능(AI) 기반 미생물 유전자 기능 발견의 속도를 크게 높일 수 있는 최신 연구 전략을 제시했다.
우리 대학은 생명화학공학과 이상엽 특훈교수 연구팀이 UCSD 생명공학과 버나드 폴슨(Bernhard Palsson) 교수와 함께 AI를 활용해 미생물 유전자 기능 발견을 획기적으로 가속할 수 있는 최신 연구 접근법을 체계적으로 정리·분석한 리뷰논문을 발표했다고 12일 밝혔다.
2000년대 초 전장 유전체 해독 기술이 본격화되며 생명체의 유전자 구성을 완전히 규명할 수 있을 것이라는 기대가 컸다. 그러나 20년이 지난 지금도 미생물 유전체 내 상당수 유전자는 어떤 역할을 하는지 밝혀지지 않은 상태다.
유전자 결실 실험, 발현량 조절, 시험관 내 활성 측정 등 다양한 실험이 시도돼 왔지만 ▲ 대규모 실험의 한계 ▲ 복잡한 생물학적 상호작용 ▲ 실험실 결과와 실제 생체 내 반응 간 불일치 등으로 인해 유전자 기능 규명에는 여전히 많은 시간과 비용이 소요돼 왔다.
연구팀은 이러한 한계를 극복하기 위해 전산생물학과 실험생물학을 결합한 AI 기반 접근이 필수적이라고 강조했다.
이번 논문에서는 기존의 서열 유사성 분석 기법부터 최신 심층학습 기반 AI 모델에 이르기까지, 유전자 기능 발견을 촉진해 온 다양한 전산생물학적 접근법을 종합적으로 정리했다.
특히 AlphaFold(구글 딥마인드가 개발한 단백질 구조 예측 AI), RoseTTAFold(미국 워싱턴대에서 개발한 또 다른 고성능 단백질 구조 예측 AI)와 같은 단백질 3차원 구조 예측 기술은 단순한 기능 추정을 넘어, 유전자 기능이 어떻게 작동하는지 이해할 수 있는 가능성을 제시했다. 더 나아가 생성형 인공지능은 원하는 기능을 가진 단백질을 설계하는 단계로까지 연구를 확장하고 있다.
연구팀은 전사인자(유전자를 켜고 끄는 스위치 역할을 하는 단백질)와 효소(생체 내 화학 반응을 촉진하는 단백질)를 중심으로, 유전자 서열 정보, 단백질 구조 예측, 다양한 메타유전체 분석을 결합한 다양한 응용 사례와 향후 연구 방향을 제시했다.
연구팀은 유전자 기능 발견의 편향과 한계를 극복하기 위해 AI가 실험을 안내하는 ‘능동적 학습(Active Learning)’ 기반 연구 프레임워크가 필요하다고 밝혔다.
능동적 학습은 AI 모델이 불확실성이 높은 예측을 스스로 선별해 실험을 제안하고, 그 결과를 다시 학습에 반영하는 방식이다. 이를 통해 연구자는 중요한 유전자 기능부터 효율적으로 검증할 수 있다.
이를 위해 연구팀은 자동화된 실험 플랫폼과 바이오파운드리 등 공유 연구 인프라와의 긴밀한 통합이 필수적이라고 강조했다. 또한 실험적으로 검증되지 못한 ‘실패 데이터’ 역시 향후 연구를 위한 중요한 학습 자산으로 공유돼야 한다고 덧붙였다.
공동저자인 김기배 KAIST 박사는 “딥러닝 기반 예측 성능은 크게 향상됐지만, 예측 결과의 근거를 생물학적으로 설명할 수 있는 해석 가능한 인공지능 모델 개발은 여전히 중요한 과제”라고 말했다.
이상엽 특훈교수는 “유전자 기능 발견의 한계를 넘어서기 위해서는 연구자의 지휘하에 AI가 안내하는 체계적 실험 프레임워크와 자동화 연구 인프라의 결합이 핵심”이라며, “예측과 검증이 반복적으로 연결되는 연구 생태계 구축이 중요하다”고 강조했다.
해당 논문은 네이처(Nature) 誌가 발행하는 생명공학 분야 권위 저널인 `네이처 마이크로볼로지(Nature Microbiology)'에 01월 07일 자 게재됐다.
※ 논문명: Approaches for accelerating microbial gene function discovery using artificial intelligence, DOI: 10.1038/s41564-025-02214-1
※ 저자 정보 : Bernhard O. Palsson (UCSD, 제1 저자), 이상엽(KAIST 제2 저자, 교신저자), 김기배(KAIST, 제3 저자) 포함 총 3명
한편, 이번 연구는 과기정통부가 지원하는 석유대체 친환경 화학기술개발사업의 ‘바이오화학산업 선도를 위한 차세대 바이오리파이너리 원천기술 개발’ 과제의 지원, 그리고 합성생물학핵심기술개발 사업의 ‘바이오제조 산업 선도를 위한 첨단 합성생물학 원천기술 개발’과제의 지원을 받아 수행됐다.
2026.01.12
조회수 374
-
광컴퓨팅·양자 보안 핵심 ‘빛 반도체’ 직접 찍어낸다
거대 인공지능(AI)을 위한 초고속 광컴퓨팅, 양자 암호 통신, 초고해상도 증강현실(AR) 디스플레이 등 미래 첨단 산업에서는 빛으로 정보를 처리하는 나노 레이저가 차세대 반도체의 핵심 소자로 주목받고 있다. 우리 대학 연구진이 머리카락보다 얇은 공간에서 빛으로 정보를 처리하는 나노 레이저를 반도체 칩 위에 고밀도로 배치할 수 있는 새로운 제작 기술을 제시했다.
우리 대학은 기계공학과 김지태 교수 연구팀이 POSTECH(총장 김성근) 노준석 교수 연구팀과의 공동 연구를 통해, 초고밀도 광집적회로의 핵심 소자인 ‘수직형 나노 레이저’를 만들 수 있는 초미세 3차원 프린팅 기술을 개발했다고 6일 밝혔다.
기존 반도체 제조 방식인 리소그래피 공정은 같은 구조를 대량 생산하는 데는 효과적이지만, 공정이 복잡하고 비용이 많이 들어 소자의 형태나 위치를 자유롭게 바꾸기 어렵다는 한계가 있었다. 또한 대부분의 기존 레이저는 기판 위에 눕혀진 수평 구조로 만들어져 공간을 많이 차지하고, 빛이 아래로 새어 나가 효율이 떨어지는 문제가 있었다.
연구팀은 이러한 문제를 해결하기 위해 빛을 효율적으로 만들어내는 차세대 반도체 소재인 ‘페로브스카이트’를 수직으로 쌓아 올리는 새로운 3D 프린팅 방식을 개발했다. 이 기술은 전압을 이용해 눈에 보이지 않을 만큼 작은 잉크 방울(아토리터, 10⁻¹⁸ L)을 정밀하게 제어하는 ‘초미세 전기유체 3D 프린팅’ 기술이다.
이를 통해 재료를 깎아내는 복잡한 공정 없이, 원하는 위치에 머리카락보다 훨씬 가는 기둥 모양의 나노 구조물을 수직으로 직접 인쇄하는 데 성공했다.
기술의 핵심은 이렇게 인쇄된 페로브스카이트 나노 구조물의 표면을 매우 매끄럽게 만들어 레이저 효율을 크게 높였다는 점이다. 연구팀은 프린팅 과정에 기체상 결정화 제어 기술을 결합해, 결정이 거의 하나로 정렬된 고품질 구조를 구현했다. 그 결과 빛의 손실이 적고 안정적으로 작동하는 ‘고효율 수직형 나노 레이저’를 구현할 수 있었다.
또한 나노 구조물의 높이를 조절해 레이저가 내는 빛의 색을 정밀하게 바꿀 수 있음을 입증했다. 이를 활용해 육안으로는 보이지 않지만 특수 장비로만 확인할 수 있는 레이저 보안 패턴을 제작했으며, 위조 방지 기술로서의 상용화 가능성도 확인했다.
김지태 교수는 “이번 기술은 복잡한 공정 없이 빛으로 계산하는 반도체를 칩 위에 직접 고밀도로 구현할 수 있게 한다”며, “초고속 광컴퓨팅과 차세대 보안 기술의 상용화를 앞당길 것”이라고 말했다.
이번 연구 결과는 기계공학과 스치 후(Shiqi Hu) 박사가 제 1 저자로 나노과학 분야 국제 권위 학술지 ACS Nano에 2025년 12월 6일 온라인 판으로 게재됐다.
※논문명: Nanoprinting with Crystal Engineering for Perovskite Lasers
DOI: https://doi.org/10.1021/acsnano.5c16906
이번 연구는 과학기술정보통신부 우수신진연구(RS−2025-00556379), 중견연구자지원사업 (RS-2024-00356928), 이노코어(InnoCORE) AI 기반 지능형 설계-제조 통합 연구단(N10250154)의 지원으로 수행되었다.
2026.01.06
조회수 611
-
B 세포 기반 ‘암을 기억하는’ 개인맞춤형 항암백신 길 열다
신생항원은 암세포만을 구별하는 고유한 표식이다. B 세포 반응성을 더하면 항암백신은 일회성 공격과 단기 기억을 넘어 장기적으로 암을 기억하는 면역이 되어 암의 재발도 효과적으로 방지할 수 있게 된다. 우리 대학 연구진은 이를 가능하게 하고, 개인별로 항암 효과를 최적화하는 AI 기반 맞춤형 항암백신 설계 기술을 개발했다.
우리 대학은 바이오및뇌공학과 최정균 교수 연구팀이 ㈜네오젠로직과의 공동연구를 통해 개인맞춤형 항암백신 개발의 핵심 요소인 신생항원을 예측하는 새로운 AI 모델을 개발하고, 이를 통해 면역항암치료에서 B 세포의 중요성을 규명했다고 2일 밝혔다.
연구팀은 기존 신생항원 발굴이 주로 T 세포 반응성 예측에 의존하던 한계를 극복하고, T 세포와 더불어 B 세포 반응성까지 통합적으로 고려한 AI 기반 신생항원 예측 기술을 개발했다.
해당 기술은 대규모 암 유전체 데이터, 동물실험, 항암백신 임상시험 자료 등을 통해 검증되었으며, 신생항원에 대한 B 세포 반응성을 정량적으로 예측할 수 있는 최초의 AI 기술로 평가된다.
신생항원은 암세포 돌연변이에서 유래된 단백질 조각으로 이루어진 항원으로, 암세포 특이성을 갖기 때문에 차세대 항암 백신의 핵심 타깃으로 주목받아 왔다. 모더나와 바이오엔텍은 신생항원 기반 항암백신 기술을 발전시키는 과정에서 확보한 mRNA 플랫폼을 활용해 COVID-19 백신을 개발한 바 있으며, 글로벌 제약사들과 함께 항암백신 임상시험을 활발히 진행 중이다.
그러나 현재 항암백신 기술은 대부분 T 세포 중심의 면역반응에 집중되어 있어 B 세포가 매개하는 면역반응을 충분히 반영하지 못한다는 한계가 존재했다.
실제로 존스홉킨스대학교 마크 야소안(Mark Yarchoan)·엘리자베스 재피(Elizabeth Jaffee) 교수 연구팀도 2025년 5월 네이처 리뷰 캔서(Nature Review Cancer)에서 “B 세포의 종양 면역 역할에 대한 근거가 축적되고 있음에도 불구하고 대부분의 항암백신 임상시험이 여전히 T 세포 반응에만 초점을 맞추고 있다”고 지적한 바 있다.
연구팀의 새로운 AI 모델은 돌연변이 단백질과 B 세포 수용체(BCR) 간 구조적 결합 특성을 학습해 B 세포 반응성을 예측하는 방식으로 기존 한계를 극복했다. 특히 항암백신 임상시험 데이터를 분석한 결과, B 세포 반응까지 통합적으로 고려함으로써 실제 임상에서 항종양 면역 효과를 크게 높일 수 있음을 확인했다.
최정균 교수는 “현재 신생항원 AI 기술을 사업화하고 있는 ㈜네오젠로직과 함께 개인맞춤형 항암백신 플랫폼의 전임상 개발을 진행하고 있으며, 2027년 임상 진입을 목표로 FDA IND* 제출을 준비 중”이라며 “독자적인 AI 기술을 기반으로 항암백신 개발의 과학적 완성도를 높이고 임상 단계로의 전환을 단계적으로 추진하겠다”고 밝혔다.
*FDA IND: 사람에게 처음으로 신약을 투여하기 전에, 미국 식품의약국(FDA)에 임상시험을 해도 되는지 허가를 받는 절차
이번 연구에는 김정연 박사와 안진현 박사가 공동 제1저자로 참여했으며, 연구 결과는 국제 학술지 사이언스 어드밴시스(Science Advances)에 12월 3일에 게재되었다.
※논문제목: B cell–reactive neoantigens boost antitumor immunity, DOI: 10.1126/sciadv.adx8303
2026.01.02
조회수 512
-
보고 즉시 판단하는 ‘뇌 닮은’ 차세대 AI 반도체 제시
인공지능(AI) 고도화로 센서·연산·메모리를 하나로 통합하는 초저전력 반도체 기술의 중요성이 커지고 있다. 그러나 기존 구조는 데이터 이동에 따른 전력 손실과 지연, 메모리 신뢰성 한계를 안고 있다. 이러한 문제를 해결할 ‘센서–연산–저장’ 통합 AI 반도체 핵심 기술을 국내 연구진이 제시해 국제 학계의 주목을 받았다.
우리 대학은 전기및전자공학부 전상훈 교수 연구팀이 지난 12월 8일부터 10일까지 미국 샌프란시스코에서 열린 세계 최고 권위의 반도체 학회 ‘국제전자소자학회(IEEE IEDM 2025)’에서 총 6편의 논문을 발표했으며, 이 가운데 하이라이트 논문과 최우수 학생 논문(Top Ranked Student Paper)으로도 동시에 선정되었다고 31일 밝혔다.
※하이라이트 논문: Monolithically Integrated Photodiode–Spiking Circuit for Neuromorphic Vision with In-Sensor Feature Extraction, 논문 링크: https://iedm25.mapyourshow.com/8_0/sessions/session-details.cfm?scheduleid=255
※최우수 학생 논문: A Highly Reliable Ferroelectric NAND Cell with Ultra-thin IGZO Charge Trap Layer; Trap Profile Engineering for Endurance and Retention Improvement, 논문링크: https://iedm25.mapyourshow.com/8_0/sessions/session-details.cfm?scheduleid=124
하이라이트 논문으로 선정된 M3D 집적 신경모방 시각 센서 연구는 사람의 눈과 뇌를 하나의 칩 안에 쌓아 올린 반도체다. 쉽게 말해, 빛을 감지하는 센서와 뇌처럼 신호를 처리하는 회로를 아주 얇은 층으로 만들어 위아래로 겹쳐 한 칩에 넣었고, 이 덕분에 보고–판단하는 과정이 동시에 이뤄지는 구조를 구현했다.
이를 통해 연구팀은 카메라 센서 안에서 바로 ‘보고 동시에 판단하는’ AI 연산 기술이 동시에 이뤄지는 ‘세계 최초의 인-센서 스파이킹 컨볼루션(In-Sensor Spiking Convolution)’ 플랫폼을 완성했다.
이 기술은 기존에는 이미지를 찍고(센서), 숫자로 바꾼 뒤(ADC), 메모리에 저장하고(DRAM), 다시 연산하는(CNN) 여러 단계를 거쳐야 했지만, 이번 기술은 센서 안에서 바로 연산이 이뤄져 불필요한 데이터 이동을 없앴다. 그 결과 전력 소모는 크게 줄이고, 반응 속도는 획기적으로 높인 실시간·초저전력 엣지 AI 구현이 가능해졌다.
연구팀은 이번 학회에서 이러한 접근을 바탕으로 AI 반도체의 입력부터 저장까지 전 계층을 아우르는 6가지 핵심 기술을 제시했다. 기존 반도체 공정을 그대로 쓰면서도 전기를 훨씬 덜 쓰는 뇌처럼 작동하는 뉴로모픽 반도체와 AI에 최적화된 차세대 메모리를 동시에 만든 것이다.
먼저 센서 쪽에서는, 이미지를 찍는 부품과 계산하는 부품을 따로 두지 않고 센서 단계에서 바로 판단이 이뤄지도록 설계했다. 덕분에 사진을 찍어 다른 칩으로 보내 계산하던 기존 방식보다 전력 소모는 줄고 반응 속도는 빨라졌다.
또한 메모리 분야에서는, 같은 재료를 활용해 더 낮은 전압으로 동작하면서도 오래 쓰고, 전원이 꺼져도 데이터를 안정적으로 저장할 수 있는 차세대 낸드 플래시를 구현했다. 이를 통해 AI에 필요한 대용량·고신뢰성·저전력 메모리를 한꺼번에 만족하는 기반 기술을 제시했다.
연구를 이끈 전상훈 교수는 “이번 연구는 센서·연산·저장을 각각 따로 설계하던 기존 AI 반도체 구조에서 벗어나, 전 계층을 하나의 재료와 공정 체계로 통합할 수 있음을 실증했다는 점에서 큰 의의가 있다”며, “앞으로 초저전력 엣지 AI부터 대규모 AI 메모리까지 아우르는 차세대 AI 반도체 플랫폼으로 확장해 나갈 것”이라고 밝혔다.
한편, 이번 연구는 과학기술정보통신부, 한국연구재단 등 기초연구 사업과 극한스케일 극한물성 이종집적 한계극복 반도체기술 연구센터(CH³IPS)를 통해서 지원 받아 수행되었다. 삼성전자, 경북대, 한양대와 협업으로 수행되었다.
2025.12.31
조회수 746
-
내 PC·모바일도 AI 인프라로...챗GPT 비용 낮춘다
대규모 언어모델(LLM) 기반 AI 서비스는 지금까지 대부분 고가의 데이터센터 GPU에 의존해 왔다. 이로 인해 서비스 운영 비용이 높고, AI 기술 활용의 진입장벽도 컸다. 우리 대학 연구진이 비싼 데이터센터 GPU를 덜 쓰고, 주변에 있는 저렴한 GPU를 활용해 AI 서비스를 더 싸게 제공할 수 있는 기술을 개발했다.
우리 대학은 전기및전자공학부 한동수 교수 연구팀이 데이터센터 밖에 널리 보급된 저렴한 소비자급 GPU를 활용해 LLM 인프라 비용을 크게 낮출 수 있는 새로운 기술 ‘스펙엣지(SpecEdge)’를 개발했다고 28일 밝혔다.
SpecEdge는 데이터센터 GPU와 개인 PC나 소형 서버 등에 탑재된 ‘엣지 GPU’가 역할을 나눠 LLM 추론 인프라를 함께 구성하는 방식이다. 이 기술을 적용한 결과, 기존 데이터센터 GPU만 사용하는 방식에 비해 토큰(AI가 문장을 만들어내는 최소 단위)당 비용을 약 67.6% 절감할 수 있었다.
연구팀은 이를 위해 ‘추측적 디코딩(Speculative Decoding)’이라는 방법을 활용했다. 엣지 GPU에 배치된 소형 언어모델이 확률이 높은 토큰 시퀀스(단어 또는 단어 일부가 순서대로 이어진 형태)를 빠르게 생성하면, 데이터센터의 대규모 언어모델이 이를 일괄 검증하는 방식이다. 이 과정에서 엣지 GPU는 서버의 응답을 기다리지 않고 계속 단어를 만들어, LLM 추론 속도와 인프라 효율을 동시에 높였다.
데이터센터 GPU에서만 추측적 디코딩을 수행하는 방식과 비교해 비용 효율성은 1.91배, 서버 처리량은 2.22배 향상됐다. 특히 일반적인 인터넷 속도에서도 문제없이 작동해, 별도의 특수한 네트워크 환경 없이도 실제 서비스에 바로 적용할 수 있는 기술임을 확인했다.
또한 서버는 여러 엣지 GPU의 검증 요청을 효율적으로 처리하도록 설계돼, GPU 유휴 시간 없이 더 많은 요청을 동시에 처리할 수 있다. 이를 통해 데이터센터 자원을 보다 효율적으로 활용할 수 있는 LLM 서빙 인프라 구조를 구현했다.
이번 연구는 데이터센터에 집중돼 있던 LLM 연산을 엣지로 분산시켜, AI 서비스의 기반이 되는 인프라 비용은 줄이고 접근성은 높일 수 있는 새로운 가능성을 제시했다. 향후 스마트폰, 개인용 컴퓨터, 신경망 처리장치(NPU) 등 다양한 엣지 기기로 확장될 경우, 고품질 AI 서비스가 보다 많은 사용자에게 제공될 수 있을 것으로 기대된다.
연구를 이끈 한동수 교수는 “데이터센터를 넘어 사용자의 주변에 있는 엣지 자원까지 LLM 인프라로 활용하는 것이 목표”라며 “이를 통해 AI 서비스 제공 비용을 낮추고, 누구나 고품질 AI를 활용할 수 있는 환경을 만들고자 한다”고 말했다.
이번 연구에는 KAIST 박진우 박사와 조승근 석사과정이 참여했으며, 연구 결과는 12월 2일부터 7일까지 미국 샌디에이고에서 열린 인공지능 분야 최고 권위 국제 학회인 신경정보처리시스템 학회(NeurIPS)에서 스포트라이트(Spotlight)로 (상위 3.2% 논문, 채택률 24.52%) 발표됐다.
※논문명: SpecEdge: Scalable Edge-Assisted Serving Framework for Interactive LLMs,
논문링크: https://neurips.cc/virtual/2025/loc/san-diego/poster/119940, https://arxiv.org/pdf/2505.17052
한편, 이 연구는 정보통신기획평가원 (IITP) ‘AI-Native 응용 서비스 지원 6G 시스템 기술개발’ 과제의 지원을 받아 수행됐다.
2025.12.29
조회수 452
-
숙련자의 감 · 언어 장벽 넘어 AI가 제조를 판단한다
우리가 쓰는 플라스틱 제품 대부분은 녹인 플라스틱을 틀에 넣어 같은 제품을 대량으로 찍어내는‘사출성형’공정으로 만든다. 하지만 조건이 조금만 달라도 불량이 생겨, 그동안은 숙련자의 감에 의존해 왔다. 이제 우리 대학 연구진이 고숙련자 은퇴와 외국인 인력 증가로 제조 지식이 단절될 수 있다는 우려에 대해 AI로 공정을 스스로 최적화하고 지식을 전수하는 해법을 내놨다.
우리 대학은 기계공학과 유승화 교수 연구팀(기계공학과·이노코어 PRISM-AI 센터)이 사출 공정을 스스로 최적화하는 생성형 AI 기술과, 현장 지식을 누구나 활용할 수 있는 LLM 기반 지식 전이 시스템을 세계 최초로 개발하고, 그 성과를 세계 최고 수준의 국제학술지에 연속 게재했다고 22일 밝혔다.
첫 번째 성과는 환경 변화나 품질 조건에 따라 자동으로 최적 공정 조건을 추론하는 생성형 AI 기반 공정추론 기술이다. 기존에는 온도나 습도, 원하는 품질 수준이 바뀔 때마다 숙련자가 시행착오를 거쳐 조건을 다시 맞춰야 했다.
연구팀은 실제 사출 공장에서 수개월간 수집한 환경 데이터와 공정 파라미터를 활용해, 확산 모델(Diffusion Model) 기반으로 목표 품질을 만족하는 공정 조건을 역설계하는 기술을 구현했다.
여기에 실제 생산을 대신하는 대리모델(Surrogate Model)을 함께 구축해, 공정을 돌리지 않고도 품질을 미리 예측할 수 있도록 했다. 그 결과 기존 공정 예측에 활용되던 기존 대표기술인 GAN*·VAE** 기반 모델의 오류율(23~44%)을 크게 낮춘 1.63%의 오류율을 달성했으며, 실제 공정 적용 실험에서도 AI가 제시한 조건대로 양품 생산이 확인돼 현장 활용 가능성을 입증했다.
*GAN(Generative Adversarial Network, 생성적 적대 신경망): 두 개의 AI가 서로 경쟁하면서 데이터를 만들어내는 방식, **VAE(Variational Autoencoder, 변분 오토인코더): 데이터의 공통된 패턴을 압축해 이해한 뒤 다시 만들어내는 방식
두 번째 성과는 고숙련자 은퇴와 다국어 작업 환경에 대응하는 LLM 기반 지식 전이 시스템 ‘IM-Chat’이다. IM-Chat은 거대언어모델(LLM)과 검색 증강 생성(RAG)을 결합한 멀티에이전트 AI 시스템으로, 초급 작업자 또는 외국인 작업자가 제조 현장에서 겪는 문제에 대해 적절한 해결책을 제공하는 제조 현장용 AI 도우미다.
작업자가 자연어로 질문하면, AI가 이를 이해해 필요에 따라 생성형 공정추론 AI를 자동으로 호출하고, 최적 공정 조건 계산과 함께 관련 기준과 배경 설명까지 동시에 제공한다.
예를 들어 “현재 공장 습도가 43.5%일 때 적정 사출 압력은?”이라는 질문에 AI는 최적 조건을 계산하고, 관련 매뉴얼 근거까지 함께 제시한다. 다국어 인터페이스를 지원해 외국인 작업자도 동일한 수준의 의사결정 지원을 받을 수 있다.
이번 연구는 사출 공정을 넘어 금형, 프레스, 압출, 3D 프린팅, 배터리, 바이오 제조 등 다양한 산업으로 확장 가능한 제조 AI 전환(AX) 핵심 기술로 평가된다.
특히 생성형 AI와 LLM 에이전트를 툴 콜링(Tool-Calling) 방식*으로 통합해, AI가 스스로 판단하고 필요한 기능을 호출하는 자율 제조 AI 패러다임을 제시했다는 점에서 의미가 크다.
*툴 콜링 방식: AI가 상황에 맞게 필요한 기능이나 프로그램을 스스로 불러 사용하는 방식
유승화 교수는 “공정을 스스로 최적화하는 AI와, 현장 지식을 누구나 활용할 수 있는 LLM을 결합해 제조업의 본질적 문제를 데이터 기반으로 해결한 사례”라며 “앞으로 다양한 제조 공정으로 확장해 산업 전반의 지능화와 자율화를 가속하겠다”고 말했다.
이번 연구는 기계공학과 김준영·김희규·이준형 박사과정이 공동 제1저자로 참여하고, 유승화 교수가 교신저자로 참여했으며, 공학·산업 분야 세계 1위 국제학술지인 ‘저널 오브 매뉴팩처링 시스템즈(Journal of Manufacturing Systems, JCR 1/69, IF 14.2)’4월호와 12월호에 연속 게재됐다.
※ 논문명1: Development of an Injection Molding Production Condition Inference System Based on Diffusion Model, DOI: https://doi.org/10.1016/j.jmsy.2025.01.008
※논문명2: IM-Chat: A multi-agent LLM framework integrating tool-calling and diffusion modeling for knowledge transfer in injection molding industry, DOI: https://doi.org/10.1016/j.jmsy.2025.11.007
한편, 이번 연구는 과학기술정보통신부·중소벤처기업부·산업통상자원부의 지원을 받았다.
2025.12.22
조회수 1222
-
콧속에 뿌렸더니 호흡기 바이러스 잡았다
독감이나 코로나19처럼 종류가 다양하고 변이가 빠른 호흡기 바이러스는 백신만으로 완벽히 막기 어렵다. 우리 대학 연구팀이 이 문제를 해결하기 위해 기존 인터페론-람다 치료제가 지녔던 ‘열에 약하고 코 점막에서 금방 사라지는’ 한계를 AI 기술로 극복한 비강(콧속) 투여형 항바이러스 플랫폼을 개발하는데 성공했다.
우리 대학은 생명과학과 김호민 교수, 정현정 교수, 의과학대학원 오지은 교수 공동 연구팀이 AI로 인터페론-람다 단백질을 안정적으로 재설계하고, 이를 비강 점막에 잘 확산하고, 오래 머물게 하는 전달 기술과 결합해 다양한 호흡기 바이러스를 범용적으로 예방할 수 있는 기술을 구현했다고 15일 밝혔다.
인터페론-람다(IFN-λ)는 우리 몸이 바이러스 감염을 막기 위해 스스로 만드는 선천면역 단백질로, 감기·독감·코로나19와 같은 호흡기 바이러스 차단에서 중요한 역할을 한다. 하지만 이를 치료제로 만들어 비강에 투여할 경우 열·분해효소·점액·섬모운동에 취약해 실제 효능이 제한되는 문제가 있었다.
연구팀은 AI 단백질 설계 기술을 이용해 인터페론-람다의 구조적 약점을 정밀하게 보완했다.
먼저, 단백질의 헐거운 루프(loop) 구조로 흔들리던 부분을 단단한 스프링처럼 고정되는 나선형(helix) 구조로 바꿔 안정성을 크게 높였다.
또한 단백질끼리 서로 달라붙어 덩어리(뭉침)가 생기는 문제를 막기 위해 표면을 물과 잘 섞이도록 설계하는‘표면 엔지니어링’을 적용했고, 단백질 표면의 당사슬(glycan) 구조를 추가하는‘글라이코엔지니어링(glycoengineering)’을 도입해 단백질을 한층 튼튼하고 안정하게 재설계했다.
그 결과 새롭게 제작된 인터페론-람다는 50℃에서 2주를 버틸 만큼 안정성이 대폭 향상되었으며, 끈적한 비강 점막에서도 빠르게 확산 되는 특성을 보였다.
연구팀은 여기에 단백질을 ‘나노리포좀(nanoliposome)’이라는 미세 캡슐에 담아 보호하고, 그 표면을 ‘저분자 키토산(chitosan)’으로 코팅해 코 점막에 오래 붙어 있도록 점막 부착력(mucoadhesion)을 크게 강화했다.
이 전달 플랫폼을 인플루엔자 감염 동물 모델에 적용한 결과, 콧속 바이러스가 85% 이상 감소하는 강력한 억제 효과가 확인됐다.
이 기술은 간단히 코에 뿌리는 것만으로 바이러스 감염을 초기에 차단할 수 있는 점막 면역 플랫폼으로, 계절성 독감은 물론 예기치 못한 신·변종 바이러스에도 신속히 대응할 새로운 치료 전략으로 기대된다.
김호민 교수는 “AI 기반 단백질 설계와 점막 전달기술로 기존 인터페론-람다 치료제의 안정성과 체류 시간 한계를 동시에 극복했다”며 “고온에서도 안정적이고 점막에 오래 머무르는 이번 플랫폼은 엄격한 냉장 유통시스템(콜드체인) 인프라가 부족한 개발도상국에서도 활용 가능한 혁신 기술로, 다양한 치료제·백신 개발로의 확장성이 크다. 또한 AI 단백질 설계부터 약물 전달 최적화, 감염 모델을 통한 면역 평가까지 다학제 융합 연구가 만들어낸 의미 있는 성과”라고 밝혔다.
이번 연구에는 KAIST 이노코어(InnoCORE) AI-혁신신약연구단 윤정원 박사, 생명과학과 양승주 박사, 의과학대학원 권재혁 박사과정 학생이 공동 제 1저자로 참여했으며, 연구 결과는 저명 국제 학술지 `어드밴스드 사이언스(Advanced Science, 11월 20일)'와‘바이오머터리얼즈 리서치(Biomaterials Research, 11월 21일)’에 연달아 게재됐다.
※ 논문명 : Computational Design and Glycoengineering of Interferon-Lambda for Nasal Prophylaxis against Respiratory Viruses, Advanced Science, DOI: 10.1002/advs.202506764
※ 논문명 : Intranasal Nanoliposomes Delivering Interferon Lambda with Enhanced Mucosal Retention as an Antiviral, Biomaterials Research, DOI: 10.34133/bmr.0287
한편 이번 연구는 KAIST 이노코어 프로그램(InnoCORE, AI-혁신신약연구단), 한국연구재단(NRF) 중견연구자지원사업 및 바이오의료기술개발사업, 한국 보건 산업진흥원(KHIDI) 보건의료기술연구개발사업, KAIST 대규모 융합연구소 운영사업, 기초과학연구원(IBS)의 지원을 받아 수행되었다.
2025.12.15
조회수 1164
-
‘뇌처럼 배우는 AI’ 가능성 열렸다...인간 전두엽의 학습 비밀 규명
사람은 갑작스러운 변화가 닥쳐도 금세 계획을 새로 세우고 목표를 조정하는 안정성과 유연성을 동시에 갖추고 있다. 그러나 이세돌 기사와 대국을 펼친 알파고를 비롯해 로봇 분야에 널리 사용되는 모델 프리 AI는 이러한 두 능력을 함께 구현하지 못한다. 우리 대 연구팀은 그 이유가 전두엽의 독특한 정보 처리 방식에 있으며, 이 원리가 ‘뇌처럼 유연하고 안정적인 AI’를 만들 핵심 열쇠가 될 수 있음을 규명했다.
우리 대학은 뇌인지과학과 이상완 교수 연구팀이 IBM AI 연구소와 함께 인간의 뇌가 목표 변화와 불확실한 상황을 처리하는 방식을 규명하고, 차세대 AI 강화학습이 나아가야 할 방향을 제시했다고 14일 밝혔다.
연구팀은 기존 강화학습 모델들이 목표가 바뀌는 상황에서는 안정성이 떨어지고, 환경이 불확실하면 유연성이 부족해지는 한계가 있지만 인간은 두 요소를 동시에 달성한다는 점을 집중했다. 연구팀은 이 차이가 전두엽이 정보를 표현하는 방식 자체에서 비롯된다고 보았다.
뇌 기능 MRI(fMRI) 실험, 강화학습 모델, AI 분석 기법을 활용한 결과, 인간 전두엽은 ‘목표 정보’와 ‘불확실성 정보’를 서로 간섭하지 않도록 분리해 저장하는 특별한 구조를 가지고 있음이 밝혀졌다. 이런 구조가 뚜렷할수록 사람은 목표가 바뀌면 빠르게 전략을 바꾸고, 환경이 불확실해도 안정적인 판단을 유지했다. 연구팀은 이를 통신 기술의 멀티플렉싱(multiplexing)처럼 서로 다른 정보를 한 번에 처리하는 특징을 갖는다는 점도 확인했다.
이렇게 인간의 전두엽은 목표가 바뀔 때마다 그 변화를 민감하게 추적해 의사결정의 유동성을 확보하는 ‘채널’이 있고, 동시에 또 다른 채널을 통해 환경의 불확실성을 분리해 안정적인 판단을 유지한다.
흥미로운 점은 전두엽이 첫 번째 채널을 통해 단순히 학습을 실행하는 수준을 넘어서, 두 번째 채널을 활용하여 상황에 따라 어떤 학습 전략을 쓸지 스스로 고르는 역할까지 한다는 것이다.
연구팀은 전두엽이 단순히 학습을 실행하는 수준을 넘어, 상황에 따라 어떤 학습 전략을 사용할지 스스로 선택하는 ‘메타학습 능력’을 갖고 있다는 점을 보여줬다.
즉, 전두엽은 무엇을 배울지뿐 아니라 어떻게 배울지도 학습하는 구조를 가지고 있으며, 이것이 인간이 끊임없이 바뀌는 상황에서도 흔들리지 않는 이유다.
이 연구는 개인의 강화학습·메타학습 능력 분석, 맞춤형 교육 설계, 인지 능력 진단, 인간-컴퓨터 상호작용 등 다양한 분야에 활용될 수 있으며, 뇌 기반 표현 구조를 활용하면 ‘뇌처럼 생각하는 AI’기술로서 AI가 인간의 의도와 가치를 더 잘 이해해 위험한 판단을 줄이고 사람과 더 안전하게 협력하는 기술로 이어질 수 있다.
연구 책임자인 이상완 교수는 “이번 연구는 변화하는 목표를 유연하게 따라가면서도 안정적으로 계획을 세우는 뇌의 작동 원리를 AI 관점에서 규명한 성과이며, 이러한 원리가 앞으로 AI가 사람처럼 변화에 적응하고 더 안전하고 똑똑하게 학습하는 차세대 AI의 핵심 기반이 될 것”이라고 말했다.
이 연구는 성윤도 박사과정 학생이 1 저자, IBM AI 연구소 마티아 리고티(Mattia Rigotti) 박사가 2저자로 참여했으며, 이상완 교수가 교신저자를 맡았다. 연구 결과는 국제 학술지 `네이처 커뮤니케이션스 (Nature Communications)‘ 11월 26일 자 게재됐다.
(논문명: Factorized embedding of goal and uncertainty in the lateral prefrontal cortex guides stably flexible learning) DOI: 10.1038/s41467-025-66677-w)
특히 이번 연구는 과학기술정보통신부 한계도전 R&D 프로젝트 사업 지원을 받아 수행됐다.
2025.12.15
조회수 715
-
KAIST-카카오뱅크, '설명 가능한 AI' 속도 11배 높였다. "금융 AI 신뢰도↑"
우리 대학 김재철AI대학원 최재식 교수 연구팀이 ㈜카카오뱅크(대표 윤호영)와 공동으로 인공지능(AI) 모델의 판단 근거를 실시간으로 설명할 수 있는 가속화 설명 기술을 개발했다고 밝혔다.
이번 연구 성과는 AI 모델의 예측 결과에 대한 기존 설명 알고리즘 대비 평균 8.5배, 최대 11배 이상 빠른 처리 속도를 달성해, 금융 서비스 등 실시간 의사결정이 필요한 분야에서 설명가능 인공지능(Explainable Artificial Intelligence, 이하 XAI) 기술의 실용화 가능성을 크게 높였다.
금융 분야에서는 AI 시스템이 내린 결정에 대한 명확한 설명이 필수적이다. 특히 대출 심사나 이상거래 탐지와 같이 고객의 권익과 직결된 서비스에서는 AI 모델의 판단 근거를 투명하게 제시해야 하는 규제 요구가 점차 강화되고 있다. 하지만 기존의 설명가능 인공지능(XAI) 기술은 정확한 설명을 생성하기 위해 수백에서 수천 개의 기준점(Baseline)을 반복 계산해야 하므로 막대한 연산 비용이 발생했다. 이는 실시간 서비스 환경에서 설명가능 인공지능 (XAI) 기술의 적용을 제약하는 주요 요인이었다.
최재식 교수 연구팀은 이러한 문제를 해결하기 위해 'ABSQR(Amortized Baseline Selection via Rank-Revealing QR)'이라는 설명 알고리즘 가속화 프레임워크를 개발했다. ABSQR은 AI 모델 설명 과정에서 생성되는 가치 함수 행렬(value function matrix)이 저차원 구조를 가진다는 점에 착안해, 수백 개의 기준점 중에서 핵심적인 소수만을 선별하는 방식을 도입했다. 기준점 개수에 비례하던 연산량을 선별된 중요 기준점 개수에만 비례하도록 획기적으로 줄여, 설명 정확도는 유지하면서도 계산 효율성을 극대화했다.
구체적으로 ABSQR은 두 단계로 작동한다. 첫 번째 단계에서는 특이값 분해(SVD)와 랭크 판별형 QR 분해(Rank-Revealing QR decomposition) 기법을 활용해 중요한 기준점들을 체계적으로 선별한다. 이는 기존의 무작위 샘플링 방식과 달 정보력 복원 유지를 목적으로 한 결정론적 선택 방법으로, 설명의 정확도를 보장하면서도 계산량을 획기적으로 줄일 수 있다. 두 번째 단계에서는 사전에 계산해둔 기준점의 가중치들을 클러스터 기반 검색을 통해 재사용하는 가속화 추론(amortized inference) 메커니즘을 도입해, 실시간 서비스 환경에서 모델 평가를 반복하지 않고도 모델의 예측 결과에 대한 설명을 제공할 수 있게 했다.
연구팀은 다양한 실제 데이터셋을 대상으로 한 실험을 통해 ABSQR의 우수성을 검증했다. 금융, 마케팅, 인구통계 등 5개 분야의 표준 데이터셋에 대한 테스트 결과, ABSQR은 모든 기준점을 사용하는 기존 설명 알고리즘 대비 평균 8.5배 빠른 처리 속도를 달성했으며, 최대 11배 이상의 속도 향상을 기록했다. 또한, 속도 향상에 따른 설명 정확도 저하를 최소화하여 기준 알고리즘 대비 최대 93.5%의 설명 정확도를 유지했다. 이는 실무 환경에서 요구되는 설명 품질을 충분히 만족하는 수준이다.
카카오뱅크 관계자는 "앞으로도 끊임없는 연구개발을 통해 금융 서비스의 신뢰도와 편의성을 높이고, 고객이 체감할 수 있는 혁신적인 금융 기술을 선보이겠다"고 밝혔다.
공동 제1 저자인 KAIST 이찬우, 박영진 연구원은 "금융 분야에서 실시간 적용을 위해 가장 중요한 과제인 가속화 문제를 해결한 방법론으로, 사용자에게 학습 모델에 대한 의사결정 원인을 실시간으로 제공할 수 있음을 입증했다"라고 연구의 의의를 설명했다. 이어 "이번 연구는 설명 알고리즘에서 불필요한 연산과 중요한 기준점 선택이 무엇인지에 대한 새로운 통찰을 제공하며, 설명 기술의 효율성 향상에 실질적으로 기여할 것"이라고 덧붙였다.
KAIST 김재철AI대학원 이찬우, 박영진 박사 과정 연구원과 카카오뱅크 금융기술연구소 이현근, 유예은 연구원이 공동 제1 저자로 참여한 이번 연구는 정보 및 지식 관리 분야의 세계 최고 권위 학술대회인 'CIKM 2025(ACM International Conference on Information and Knowledge Management)'에서 11월 12일에 발표되었다.
※ 논문명: Amortized Baseline Selection via Rank-Revealing QR for Efficient Model Explanation
※ 저자 정보:
- 공동 제1저자: 이찬우(KAIST 김재철AI대학원), 박영진(KAIST 김재철AI대학원), 이현근(카카오뱅크), 유예은(카카오뱅크)
- 공저자: 한대희(카카오뱅크), 최준호(KAIST 김재철AI대학원), 김건형(KAIST 김재철AI대학원)
- 교신저자: 김나리(KAIST 김재철AI대학원), 최재식(KAIST 김재철AI대학원)
※ DOI: https://doi.org/10.1145/3746252.3761036
한편, 이번 연구성과는 카카오뱅크의 산학 연구과제 ‘금융분야 설명가능 인공지능 알고리즘 고도화 연구’와 과기정통부·정보통신기획평가원(IITP)의 지원 과제 ‘플러그앤플레이 방식으로 설명가능성을 제공하는 인공지능 기술 개발 및 인공지능 시스템에 대한 설명 제공 검증'를 통해 수행됐다.
2025.12.11
조회수 756
-
AI로 인간 집단행동 예측! 세계 최고 학회에서 1위.. 23년 만의 쾌거
우리 대학은 김재철AI대학원 신기정 교수 연구팀이 개인의 나이, 역할 등 특성이 집단 관계에 미치는 영향을 분석해 복잡한 사회 집단행동을 예측하는 획기적인 AI 기술을 개발했다고 9일 밝혔다.
연구팀은 이 기술로 미국전기전자학회(IEEE) 주관 세계적 데이터마이닝 학술대회 'IEEE ICDM'에서 최우수 논문상(Best Paper Award)을 수상하는 쾌거를 이루었다. 이는 전 세계 785편 중 단 1편에게만 주어지는 최고 권위의 상으로, 한국 대학 연구팀으로서는 23년 만의 수상으로 KAIST가 다시 한 번 세계 연구 무대에서 기술 리더십을 입증했다.
오늘날 온라인 커뮤니티·연구 협업·단체 채팅 등 다수가 동시에 참여하는 집단 상호작용은 사회 곳곳에서 폭발적으로 늘고 있다. 그러나 이러한 집단 행동이 어떤 구조로 형성되고, 개인의 특성이 어떻게 영향을 미치는지를 동시에 정밀하게 설명해 내는 기술은 부족했다.
신기정 교수 연구팀은 이 한계를 뛰어넘기 위해 개인 특성과 집단 구조를 실제처럼 맞물리게 재현하는 AI 모델 ‘NoAH(Node Attribute-based Hypergraph Generator)’를 개발했다.
NoAH는 사람들의 특징이 모이면 어떤 그룹 행동이 만들어지는지를 설명하고 흉내내는 인공지능이다. 예를 들어, 어떤 사람이 어떤 관심사를 갖고 있는지, 어떤 역할을 하는지 등의 정보들이 실제로 어떻게 모여서 그룹 행동을 만들어 내는지를 분석해 그대로 재현할 수 있다.
그래서 NoAH는 사람의 성향과 관계를 동시에 반영해 ‘현실 같은 집단 행동’을 만들어 내는 AI로, 전자상거래에서의 구매 조합, 온라인 토론의 확산 과정, 연구자들의 논문 공저 네트워크 등 다양한 실제 집단 행동을 기존 모델보다 훨씬 더 사실적으로 재현하는 것으로 나타났다.
신기정 교수는 “이번 연구는 집단의 구조뿐 아니라 개인의 특성까지 함께 고려해, 복잡한 상호작용을 입체적으로 이해할 수 있는 새로운 AI 패러다임을 열었다”며 “온라인 커뮤니티, 메신저, 소셜 네트워크 분석 등이 한층 정밀해질 것”이라고 말했다.
이번 연구는 신기정 교수와 KAIST 김재철AI대학원 소속 전재완·윤석범 석사과정, 최민영·이건 박사과정으로 구성된 연구팀이 수행하였으며, IEEE ICDM에서 11월 18일 자 발표하였다.
※논문명: Attributed Hypergraph Generation with Realistic Interplay Between Structure and Attributes
논문원본: https://arxiv.org/abs/2509.21838
한편, 신 교수 연구팀은 이번 수상 논문을 포함해 올해 IEEE ICDM에서 총 네 편의 논문을 발표했다. 또한 2023년에도 같은 학술대회에서 상위 4등인 Best Student Paper Runner-up을 수상한 바 있다.
이 성과는 정보통신기획평가원의 지원을 받은 AI 연구거점 프로젝트, 인공지능 대학원 지원(KAIST), 인공지능 에이전트 협업기반 신경망 변이 및 지능 강화 기술 개발 과제의 지원을 받았다.
2025.12.09
조회수 1143
-
K-HERO 큐브위성, 초소형 홀추력기 우주 검증 본격 착수
우리 대학은 한국형발사체 누리호 4차에 실려 우주로 향한 큐브위성 K-HERO(KAIST Hall Effect Rocket Orbiter)가 27일 정오 지상국과 첫 교신에 성공하며, AI 기반 초소형 홀추력기 우주 검증을 위한 본격적인 임무 준비에 돌입했다고 28일 밝혔다.
K-HERO에는 KAIST 원자력및양자공학과 최원호 교수 연구팀이 AI 기반 설계기술로 개발한 150 W급 초소형 홀전기추력기가 탑재되어 있다. 이번 누리호 4차 발사에서 실린 12기의 큐브위성 중 홀추력기 우주 실증 임무를 수행하는 유일한 위성이다.
홀추력기는 전기에너지를 이용해 제논(Xe) 연료를 이온화하고 고속으로 분사해 추력을 얻는 고효율 전기추진 기술로, 연비(비추력)가 높고, 투입 전력 대비 추력 성능(약 60 mN/kW)이 높아서 대규모 위성군(예: SpaceX 스타링크)에서 심우주 탐사(NASA Psyche)에 이르기까지 널리 활용되는 핵심 기술이다.
기존에는 주로 중대형 플랫폼(GEO 위성)에 적용돼 왔으나, 초소형·소형위성에 탑재할 경량·고효율 소형 홀추력기 개발은 기술 난이도가 높은 도전적 과제로 꼽힌다.
연구팀은 복잡한 플라즈마 생성 및 전자기장 최적화 문제를 해결하기 위해 AI 기반 성능 예측 기법을 적용했다. 이를 통해 설계 반복 과정 단축, 실험 횟수 감소, 개발 기간·비용 절감이라는 뚜렷한 성과를 거두었으며, 이는 국내 초소형 전기추진 기술의 수준을 한 단계 끌어올리는 성취로 평가된다.
K-HERO는 27일 오전 4시경 미국 애리조나 SatNOGS 지상국에서 첫 비콘 신호가 확인됐고 이후 글로벌 지상국에서 10회 이상 신호 수신, 27일 정오 한국항공우주연구원(KARI) 지상국에서도 비콘 수신 성공을 통해 정상적인 궤도 안착과 초기 위성 상태 안정성이 검증되었다. 비콘 분석 결과, 위성 통신 안테나 4개도 성공적으로 전개된 것으로 확인됐다.
연구팀은 향후 양방향 교신을 통해 위성의 전력, 열 환경, 자세 안정성을 점검한 뒤, 홀추력기 우주 작동 시험을 순차적으로 진행할 계획이다.
시험 시에는 플라즈마 전류, 연료탱크 압력 변화, 열적 변화, 자기장 생성 특성, 작동 제어 알고리즘, 전력 공급 특성 등 핵심 데이터를 수집·분석해 60 W급 초소형 홀추력기의 우주 환경 성능을 본격적으로 검증하게 된다.
홀추력기는 1회 작동 시 약 1 mN(밀리뉴턴)급 추력을 1분간 발휘하는 실증 임무를 수행할 예정이다. 1 mN은 쉽게 말해 지상에서 포스트잇 종이 한 장을 들어올리는 힘에 해당한다.
하지만 우주에서는 진공이라 공기 저항이 거의 없고 중력이 작아서, 이렇게 미세한 힘이라도 지속적으로 작용하면 4 kg 정도인 K-HERO 위성의 속도나 궤도를 눈에 띄게 변화시킬 수 있어 실질적인 추진력으로 활용될 수 있다.
이번 홀추력기 개발에는 최원호 교수 연구팀이 설립한 전기추진 전문 스타트업 코스모비㈜(Cosmo Bee)도 적극 참여했다. 양 기관은 K-HERO 운용 경험을 기반으로 저전력 홀추력기 시스템 상용화, 초저궤도(VLEO)·심우주 탐사용 고효율 홀추력기 개발을 추진해 국내 소형위성 전기추진 산업 경쟁력 강화에 기여할 계획이다.
최원호 교수는 “이번 임무의 성공은 실험실의 기초 물리연구에서 시작된 플라즈마 전기추력기 기술이 우주 검증 단계까지 이른 뜻깊은 성과이며, 국내 소형위성 전기추력기 상용화의 중요한 전환점이 될 것”이라고 밝혔다.
이광형 KAIST 총장은 “K-HERO 임무는 KAIST가 축적해 온 우주기술 역량이 실제 우주에서 입증된 의미 있는 성과”라며 “AI 기반 전기추진기 기술을 통해 대한민국의 초소형·소형위성 경쟁력을 세계 수준으로 끌어올리겠다”고 말했다.
2025.11.28
조회수 1417