< (왼쪽부터) 뇌인지과학과 백세범 교수, 바이오및뇌공학과 이현수 박사과정, NYU 신경과학과 최우철 박사 >
뇌의 선천적 인지 기능들은 학습이나 훈련 없이 신경망의 구조적 특성으로부터 자발적으로 발생할 수 있는 것인가?
우리 대학 뇌인지과학과 백세범 교수 연구팀이 두뇌에서 발견되는 선천적 수량 비교 능력이 자발적으로 형성되는 원리를 설명했다고 7일 밝혔다.
주어진 사물들의 수량을 비교하는 기능은 동물이나 인간의 생존에 필수적인 능력이다. 동물 그룹 간 다툼, 사냥, 먹이 수집 등 많은 상황에서 주어진 변수들의 수량 비율이나 차이에 따라 동물들의 의사결정 및 행동이 달라져야 하기 때문이다. 학습을 거치지 않은 어린 개체들의 행동 관찰로부터 수량 비교 능력은 두뇌의 선천적 기능이라는 가능성이 제기됐지만 이러한 능력이 학습 없이 발생하는 원리에 대한 설명은 아직 제시되지 않았다.
백세범 교수 연구팀은 두뇌 모사 인공신경망 모델을 활용해, 학습이 전혀 이뤄지지 않은 심층신경망 구조에서 시각적 수량 비율 및 차이 정보의 인지 기능이 자발적으로 발생할 수 있음을 증명했다. 또한 두 수량의 비율과 차이라는 서로 다른 종류의 정보를 비교하는 기능이 하나의 공통적인 발생 원리로부터 파생될 수 있다고 설명했다.
우리 대학 바이오및뇌공학과 이현수 박사과정, NYU 신경과학과 최우철 박사가 공동 제1 저자로 참여한 이번 연구는 국제 학술지 ‘셀(Cell)’의 온라인 자매지 ‘셀 리포츠(Cell Reports)’ 7월 29일 자에 게재됐다. (논문명: Comparison of visual quantities in untrained neural networks)
< 그림 1. 두뇌 모사 신경망 모델에서 수량 비교 기능의 자발적 발생을 설명하는 그림 >
연구팀은 먼저 전혀 학습을 거치지 않은 신경망에서 두 수량의 비율과 차이에 선택적으로 반응하는 개별 신경세포가 자발적으로 발생하는 것을 발견했다. 초기화된 심층신경망에서 다양한 비율 혹은 차이를 가지는 시각적 수량 정보가 주어졌을 때, 이에 선택적으로 반응하는 신경세포들이 다수 발견되며, 이들로부터 측정된 신경 활동은 실제 동물 실험에서 관측된 신경 활동 특성과 매우 유사함을 확인하였다. 또한 연구팀은 이를 이용하여 지금까지 보고되어 온 동물들의 수량 비교 행동 특성을 상당 부분 재현할 수 있음을 확인했다.
이에 더해, 연구팀은 수량 비교 기능 신경세포 회로 구조의 발생 원리를 계산신경과학적 모델을 통해 설명하고 검증했다. 신경망에서 발견된 비율/차이 선택적 신경세포의 특징적 연결구조를 분석해, 특정 값에 대한 선택성이 신경망 하위 계층에서 자발적으로 발생된 단순 증가, 단순 감소 신경 활동의 결합을 통해 형성될 수 있음을 보였다. 또한 이러한 신경 활동이 증가, 감소할 때 관찰되는 비선형성의 타입에 따라 각각 수량 비율 또는 수량 차이를 인지하는 신경세포로 분화될 수 있음을 연구팀은 확인했다.
< 그림 2. 수량 비교 기능 세포의 발생원리를 묘사하는 그림 >
이러한 결과들을 통해 연구팀은 학습이 전혀 이뤄지지 않은 두뇌에서 비율/차이 인지와 같은 선천적 수량 비교 기능이 발생하는 원리에 대한 근본적인 이해를 제시했다.
백세범 교수는 “이번 연구는 상당한 정도의 학습 과정이 필요할 것이라 여겨지던 두뇌의 수량 인지 및 비교, 연산 기능이 그 어떤 학습도 이뤄지지 않은 초기 두뇌의 구조에서 자발적으로 발생할 수 있음을 보이는 연구”라며, “발생 초기 신경망의 구조적/물리적 특성으로부터 다양한 선천적 고등 인지 기능이 발생할 수 있음을 시사함으로써 뇌신경과학 연구뿐 아니라 새로운 개념의 인공지능 연구에도 의미있는 방향을 제시할 수 있을 것이라 기대한다”고 언급했다.
< 그림 3. 동물의 행동에서 관측되는 수량 비교 기능을 묘사하는 사진 >
한편 이번 연구는 한국연구재단의 이공분야기초연구사업 및 원천기술개발사업, KAIST 특이점교수 사업의 지원을 받아 수행됐다.
최근 소셜 미디어, 전자 상거래 플랫폼 등에서 소비자의 만족도를 높이는 다양한 추천서비스를 제공하고 있다. 그 중에서도 상품의 제목 및 설명과 같은 텍스트를 주입하여 상품 추천을 제공하는 대형언어모델(Large Language Model, LLM) 기반 기술이 각광을 받고 있다. 한국 연구진이 이런 대형언어모델 기반 추천 기술의 기존 한계를 극복하고 빠르고 최상의 추천을 해주는 시스템을 개발하여 화제다. 우리 대학 산업및시스템공학과 박찬영 교수 연구팀이 네이버와 공동연구를 통해 협업 필터링(Collaborative filtering) 기반 추천 모델이 학습한 사용자의 선호에 대한 정보를 추출하고 이를 상품의 텍스트와 함께 대형언어모델에 주입해 상품 추천의 높은 정확도를 달성할 수 있는 새로운 대형언어모델 기반 추천시스템 기술을 개발했다고 17일 밝혔다. 이번 연구는 기존 연구에 비해 학습 속도에서 253% 향상, 추론 속도에서 171% 향상, 상품 추천에서 평균 12%의
2024-07-17최근 다양한 분야에서 인공지능 심층 학습(딥러닝) 기술을 활용한 서비스가 급속히 증가하고 있다. GPT와 같은 거대 언어 모델을 훈련하기 위해서는 수백 대의 GPU와 몇 주 이상의 시간이 필요하다고 알려져 있다. 따라서, 심층신경망 훈련 비용을 최소화하는 방법 개발이 요구되고 있다. 우리 대학 전산학부 이재길 교수 연구팀이 심층신경망 훈련 비용을 최소화할 수 있도록 훈련 데이터의 양을 줄이는 새로운 데이터 선택 기술을 개발했다고 2일 밝혔다. 일반적으로 대용량의 심층 학습용 훈련 데이터는 레이블 오류(예를 들어, 강아지 사진이 `고양이'라고 잘못 표기되어 있음)를 포함한다. 최신 인공지능 방법론인 재(再)레이블링(Re-labeling) 학습법은 훈련 도중 레이블 오류를 스스로 수정하면서 높은 심층신경망 성능을 달성하는데, 레이블 오류를 수정하기 위한 추가적인 과정들로 인해 훈련에 필요한 시간이 더욱 증가한다는 단점이 있다. 한편 막대한 훈련 시간을 줄이려는 방법으로 중복되
2023-11-02최근 다양한 분야에서 인공지능 심층 학습(딥러닝) 기술을 활용한 서비스가 급속히 증가하고 있다. 서비스 구축을 위해서 인공지능은 심층신경망을 훈련해야 하며, 이를 위해서는 충분한 훈련 데이터를 준비해야 한다. 특히 훈련 데이터에 정답지를 만드는 레이블링(labeling) 과정이 필요한데 (예를 들어, 고양이 사진에 `고양이'라고 정답을 적어줌), 이 과정은 일반적으로 수작업으로 진행되므로 엄청난 노동력과 시간적 비용이 소요된다. 따라서 훈련 데이터 구축 비용을 최소화하는 방법 개발이 요구되고 있다. 우리 대학 전산학부 이재길 교수 연구팀이 심층 학습 훈련 데이터 구축 비용을 최소화할 수 있는 새로운 데이터 동시 정제 및 선택 기술을 개발했다고 12일 밝혔다. 일반적으로 심층 학습용 훈련 데이터 구축 과정은 수집, 정제, 선택 및 레이블링 단계로 이뤄진다. 수집 단계에서는 웹, 카메라, 센서 등으로부터 대용량의 데이터가 정제되지 않은 채로 수집된다. 따라서 수집된 데이터에는
2022-10-12우리 대학 바이오및뇌공학과 백세범 교수 연구팀이 학습을 전혀 거치지 않은 뇌 신경망에서 선천적인 인지 기능이 발생하는 원리를 규명했다고 30일 밝혔다. 이번 연구 결과는 동물들이 출생 직후 학습을 거치지 않은 상태에서도 기초적 인지 기능들을 수행할 수 있게 하는 `선천적 뇌 기능'에 대한 이해에 다가가는 기초를 마련했으며 `초기 뇌 신경망 인지 기능의 발생'에 대해 기존의 상식과 완전히 다른 시각을 제시한다. 또한 연구팀의 결과는 일반적인 인공지능 모델에서 기능을 발생시키기 위해서는 외부의 데이터 학습이 반드시 요구되는 것과 달리, 생물학적 뇌 신경망의 기능 발생과 진화는 확률적으로 생성되는 물리적 연결 구조에 의해 자발적으로 발생할 수 있다는 차별된 기저 원리를 제안한다. 연구팀은 인지과학 분야에서 활발히 연구돼 온 얼굴 인지 기능(face detection)에 초점을 두어 뇌의 시각 신경망을 모사한 인공신경망에서의 사물 인지 기능을 시뮬레이션했다. 이를 통해 모든
2021-12-31최근 다양한 분야에서 심층 학습(딥러닝) 기술을 활용한 서비스가 급속히 증가하고 있다. 서비스 구축을 위해서는 심층 학습 모델을 훈련해야 하며, 이를 위해서는 충분한 훈련 데이터를 준비해야 한다. 특히 훈련 데이터에 정답지를 만드는 레이블링(labeling) 과정이 필요한데 (예를 들어, 낙타 사진에 `낙타'라고 정답을 적어줌), 이 과정은 일반적으로 수작업으로 진행되므로 엄청난 노동력과 시간이 소요된다. 따라서 훈련 데이터가 충분하지 않은 상황을 효과적으로 타개하는 방법이 요구되고 있다. 우리 대학 전산학부 이재길 교수 연구팀이 적은 양의 훈련 데이터가 존재할 때도 높은 예측 정확도를 달성할 수 있는 새로운 모델 훈련 기술을 개발했다고 27일 밝혔다. 심층 학습 모델의 훈련은 주어진 훈련 데이터에서 레이블과 관련성이 높은 특성을 찾아내는 과정으로 볼 수 있다. 예를 들어, `낙타'의 주요 특성이 등에 있는 `혹'이라는 것을 알아내는 것이다. 그런데 훈련 데이터가 불충분할
2021-10-27