본문 바로가기
대메뉴 바로가기
KAIST
연구뉴스
유틸열기
홈페이지 통합검색
-
검색
메뉴 열기
%EC%9D%B8%EA%B3%B5%EC%A7%80%EB%8A%A5
최신순
조회순
초대규모 인공지능 모델 처리하기 위한 세계 최고 성능의 기계학습 시스템 기술 개발
우리 연구진이 오늘날 인공지능 딥러닝 모델들을 처리하기 위해 필수적으로 사용되는 기계학습 시스템을 세계 최고 수준의 성능으로 끌어올렸다. 우리 대학 전산학부 김민수 교수 연구팀이 딥러닝 모델을 비롯한 기계학습 모델을 학습하거나 추론하기 위해 필수적으로 사용되는 기계학습 시스템의 성능을 대폭 높일 수 있는 세계 최고 수준의 행렬 연산자 융합 기술(일명 FuseME)을 개발했다고 20일 밝혔다. 오늘날 광범위한 산업 분야들에서 사용되고 있는 딥러닝 모델들은 대부분 구글 텐서플로우(TensorFlow)나 IBM 시스템DS와 같은 기계학습 시스템을 이용해 처리되는데, 딥러닝 모델의 규모가 점점 더 커지고, 그 모델에 사용되는 데이터의 규모가 점점 더 커짐에 따라, 이들을 원활히 처리할 수 있는 고성능 기계학습 시스템에 대한 중요성도 점점 더 커지고 있다. 일반적으로 딥러닝 모델은 행렬 곱셈, 행렬 합, 행렬 집계 등의 많은 행렬 연산자들로 구성된 방향성 비순환 그래프(Directed Acyclic Graph; 이하 DAG) 형태의 질의 계획으로 표현돼 기계학습 시스템에 의해 처리된다. 모델과 데이터의 규모가 클 때는 일반적으로 DAG 질의 계획은 수많은 컴퓨터로 구성된 클러스터에서 처리된다. 클러스터의 사양에 비해 모델과 데이터의 규모가 커지면 처리에 실패하거나 시간이 오래 걸리는 근본적인 문제가 있었다. 지금까지는 더 큰 규모의 모델이나 데이터를 처리하기 위해 단순히 컴퓨터 클러스터의 규모를 증가시키는 방식을 주로 사용했다. 그러나, 김 교수팀은 DAG 질의 계획을 구성하는 각 행렬 연산자로부터 생성되는 일종의 `중간 데이터'를 메모리에 저장하거나 네트워크 통신을 통해 다른 컴퓨터로 전송하는 것이 문제의 원인임에 착안해, 중간 데이터를 저장하지 않거나 다른 컴퓨터로 전송하지 않도록 여러 행렬 연산자들을 하나의 연산자로 융합(fusion)하는 세계 최고 성능의 융합 기술인 FuseME(Fused Matrix Engine)을 개발해 문제를 해결했다. 현재까지의 기계학습 시스템들은 낮은 수준의 연산자 융합 기술만을 사용하고 있었다. 가장 복잡한 행렬 연산자인 행렬 곱을 제외한 나머지 연산자들만 융합해 성능이 별로 개선되지 않거나, 전체 DAG 질의 계획을 단순히 하나의 연산자처럼 실행해 메모리 부족으로 처리에 실패하는 한계를 지니고 있었다. 김 교수팀이 개발한 FuseME 기술은 수십 개 이상의 행렬 연산자들로 구성되는 DAG 질의 계획에서 어떤 연산자들끼리 서로 융합하는 것이 더 우수한 성능을 내는지 비용 기반으로 판별해 그룹으로 묶고, 클러스터의 사양, 네트워크 통신 속도, 입력 데이터 크기 등을 모두 고려해 각 융합 연산자 그룹을 메모리 부족으로 처리에 실패하지 않으면서 이론적으로 최적 성능을 낼 수 있는 CFO(Cuboid-based Fused Operator)라 불리는 연산자로 융합함으로써 한계를 극복했다. 이때, 행렬 곱 연산자까지 포함해 연산자들을 융합하는 것이 핵심이다. 김민수 교수 연구팀은 FuseME 기술을 종래 최고 기술로 알려진 구글의 텐서플로우나 IBM의 시스템DS와 비교 평가한 결과, 딥러닝 모델의 처리 속도를 최대 8.8배 향상하고, 텐서플로우나 시스템DS가 처리할 수 없는 훨씬 더 큰 규모의 모델 및 데이터를 처리하는 데 성공함을 보였다. 또한, FuseME의 CFO 융합 연산자는 종래의 최고 수준 융합 연산자와 비교해 처리 속도를 최대 238배 향상시키고, 네트워크 통신 비용을 최대 64배 감소시키는 사실을 확인했다. 김 교수팀은 이미 지난 2019년에 초대규모 행렬 곱 연산에 대해 종래 세계 최고 기술이었던 IBM 시스템ML과 슈퍼컴퓨팅 분야의 스칼라팩(ScaLAPACK) 대비 성능과 처리 규모를 훨씬 향상시킨 DistME라는 기술을 개발해 데이터베이스 분야 최고 국제학술대회 중 하나인 ACM SIGMOD에서 발표한 바 있다. 이번 FuseME 기술은 연산자 융합이 가능하도록 DistME를 한층 더 발전시킨 것으로, 해당 분야를 세계 최고 수준의 기술력을 바탕으로 지속적으로 선도하는 쾌거를 보여준 것이다. 교신저자로 참여한 김민수 교수는 "연구팀이 개발한 새로운 기술은 딥러닝 등 기계학습 모델의 처리 규모와 성능을 획기적으로 높일 수 있어 산업적 측면에서 파급 효과가 매우 클 것으로 기대한다ˮ 라고 말했다. 이번 연구에는 김 교수의 제자이자 현재 GraphAI(그래파이) 스타트업의 공동 창업자인 한동형 박사가 제1 저자로, 김 교수가 교신저자로 참여했으며 지난 16일 미국 필라델피아에서 열린 데이터베이스 분야 최고 국제학술대회 중 하나인 ACM SIGMOD에서 발표됐다. (논문명 : FuseME: Distributed Matrix Computation Engine based on Cuboid-based Fused Operator and Plan Generation). 한편, 이번 연구는 한국연구재단 선도연구센터 사업 및 중견연구자 지원사업, 과기정통부 IITP SW스타랩 사업의 지원을 받아 수행됐다.
2022.06.20
조회수 5958
인공지능 엔진으로 영상 위변조 탐지 기술 개발
우리 연구진이 영상 내 변형 영역을 더욱 정밀하게 탐지하기 위해 영상내 색상 정보와 주파수 정보를 함께 활용하는 인공지능 엔진 기술을 학계 처음으로 개발했다. 이번 개발 기술은 기존 기술보다 정밀도와 정확도를 크게 높여 위변조 탐지 기술의 기술 유용성을 일정 수준 확보할 수 있는 기반을 제공한다는 점에서 그 의미가 크다. KAIST에서 각종 위변조 영상들을 잡아낸다는 의미를 지닌 `카이캐치(KaiCatch)' 소프트웨어는 이미지, 영상뿐만 아니라 CCTV 비디오 변형 여부도 분석할 수 있다. 우리 대학 전산학부 이흥규 교수 연구팀이 새로운 인공지능 구조와학습 방법론, 그리고 실험실 환경에서는 구하기 힘든 고급 변형 이미지 영상들을 사용해 영상 이미지 위변조 탐지 소프트웨어인 `카이캐치(KaiCatch)'의 영상 이미지 정밀도와 정확도를 크게 높일 뿐만 아니라 비디오 편집 변형도 탐지할 수 있는 카이캐치 2.1 버전을 개발했다고 13일 밝혔다. 카이캐치 소프트웨어는 `이상(異常) 유형 분석 엔진'과 `이상(異常) 영역 추정 엔진' 두 개의 인공지능 엔진으로 구성된다. `이상 유형 분석 엔진'은 블러링, 노이즈, 크기 변화, 명암 대비 변화, 모핑, 리샘플링 등을 필수 변이로 정의해 이를 탐지하며 `이상 영역 추정 엔진'은 이미지 짜깁기, 잘라 붙이기, 복사 붙이기, 복사 이동 등을 탐지한다. 이번에 새로 개발한 기술은 `이상 영역 추정 엔진'으로 기존 기술에서는 이상 영역 탐지 시 그레이 스케일(회색조)로 이상 유무를 탐지하였으나 분석 신호의 표현력이 낮고 탐지 오류가 많아 위변조 여부 판정에 어려움이 많았다. 이번에 개발된 기술은 색상 정보와 주파수 정보를 함께 활용해 정밀도(precision)와 재현율(recall)이 크게 향상되고 변형 영역을 컬러 스케일로 표현함으로써 해당 영역의 이상 유무뿐만 아니라 위변조 여부도 더욱 명확하게 판별이 가능해졌다. 연구팀은 이번 연구에서 영상 생성 시 발생하는 흔적과 압축 시 발생하는 흔적 신호들을 함께 분석하기 위해 색상 정보와 주파수 정보를 모두 활용하는 접근 방법을 학계 처음으로 제시했다. 또 이러한 방법론을 설계 구현하기 위해 주파수 정보를 하나의 분할 네트워크에서 직접 입력으로 받아들이는 방식의 ‘압축 왜곡신호 탐지 네트워크(Compression Artifact Tracing Network, 이하 CAT-Net)’을 학계 최초로 개발하고 기존 기법들과 비교해 탐지 성능이 크게 뛰어남을 입증했다. 개발한 기술은 기존에 제시된 기법들과 비교할 때 특히 원본과 변형본을 판별하는 평가 척도인 F1 점수, 평균 정밀도(average precision)에서 대단히 뛰어나 실환경 위변조 탐지 능력이 크게 강화됐다. 비디오 편집 변형의 경우도, 프레임 삭제, 추가 등에 의한 편집 변형이 흔히 CCTV 비디오 등에서 발생한다는데 착안해 이러한 비디오 편집 변형을 탐지하는 기능 역시 이번 카이캐치 2.1 버전에 탑재됐다. 이번에 카이캐치 2.1 소프트웨어를 연구 개발한 이흥규 교수는 "영상 이미지 위변조 소프트웨어인 카이캐치를 휴대폰에 탑재되는 안드로이드 앱 형태로 일반에 소개한 2021년 3월 이후 현재까지 카이캐치 앱을 통한 900여 건의 위변조 분석 의뢰와 개별적으로 60건이 넘는 정밀 위변조 분석 의뢰를 받았다. KAIST 발표 논문 수준이나 실험 결과 등을 감안할 때 위변조 분야 최고 기술로 만든 소프트웨어인데, 오탐지율이 높아 실제 탐지 정밀도가 이론치보다 매우 낮았다. 많은 경우 위변조나 변형 여부에 대한 명확한 기술 판정이 불가능했으나 이번에 개발한 카이캐치 2.1 은 CAT-Net이라는 새로운 네트워크 구조와 학습 방법론, 그리고 ‘색상 및 주파수 영역 왜곡 흔적 동시 분석’이라는 첨단 기술을 사용해 정밀도를 높여, 보다 명확한 판별이 가능하도록 개발됐다. 앞으로 영상 위변조 판단 여부가 어려운 경우가 많이 줄어들기를 기대한다”고 말했다. 이 교수는 이어 "비디오는 MP4 파일 포맷이, 그리고 영상 이미지는 JPEG 이미지들이 일반인들이 널리 사용한다는 점에서 해당 포맷을 주 개발 대상으로 삼았다. 영상 이미지의 경우 영상 편집 변형 시 영상에 남겨지는 인위적으로 발생하는 JPEG 압축 미세 신호 탐지에 주안점을 두어, 위변조 여부와 위변조 영역을 잡아내는 것에 집중했다. 비디오의 경우 특정 프레임들을 삭제하거나 삽입하는 경우, 프레임 부분 편집 후 재압축 하는 경우 등을 탐지한다. 최근 CCTV 비디오 편집 여부에 대한 분쟁이 많아 크게 도움을 줄 수 있을 것으로 기대하며 향후에도 지속적으로 연구 개발해 취약점들을 보완해 나갈 계획이다ˮ 고 덧붙였다. 현재 카이캐치 소프트웨어는 안드로이드 기반 휴대폰의 구글 플레이스토어에서 ‘카이캐치’를 검색하여 앱을 다운로드 받아 설치한 후, 영상 이미지들을 카이캐치에 업로드하면 위변조 여부를 간단하게 테스트해 볼 수 있다. 한편 이번 연구는 제1 저자로 참여한 우리 대학 전기및전자공학부 권명준 박사, 그리고 김창익 교수, 남승훈 박사, 유인재 박사 등과 공동으로 수행됐으며, `스프링거 네이처(Springer Nature)'에서 발간하는 컴퓨터 비전 분야 톱 국제저널인 `국제 컴퓨터 비전 저널(International Journal of Computer Vision, IF 7.410)'에 2022년 5월 25일 字 온라인판에 게재됐다. (논문명 : Learning JPEG Compression Artifacts for Image Manipulation Detection and Localization) 이번 연구는 한국연구재단 창의도전연구기반지원사업지원과 KAIST 창업기업인 ㈜디지탈이노텍(http://www.kaicatch.com/) 과의 산학협력 연구로 수행됐다.
2022.06.13
조회수 7657
실제 약물로 개발되는 단백질-리간드 상호작용 예측 인공지능 모델 개발
우리 대학 연구진이 물리화학적 아이디어를 인공지능 딥러닝에 접목해 기존의 방법보다 일반화 성능이 높은 단백질-리간드 상호작용 예측 모델을 개발했다. 리간드란 수용체와 같은 큰 생체 분자에 특이적으로 결합하는 물질을 말하며, 생체 내의 중요한 요소이자 의약품의 개발 등에 큰 역할을 한다. 화학과 김우연 교수 연구팀이 교원창업 인공지능 신약 개발 스타트업 HITS 연구진과 함께 물리 기반 삼차원 그래프 심층 신경망을 이용해 일반화 성능을 높인 단백질-리간드 상호작용 예측 모델을 개발했다고 17일 밝혔다. 약물 후보 분자를 발굴하기 위해서 타깃 단백질과 강하게 결합하는 리간드를 찾는 것이 중요하다. 하지만 유효 물질을 찾기 위해 수백만에서 수천만 개의 무작위 리간드 라이브러리를 대상으로 실험 전수 조사를 수행하는 것은 천문학적인 시간과 비용이 필요하다. 이러한 시간과 비용을 절감하기 위해 최근 단백질-리간드 상호작용 예측에 기반한 가상탐색(virtual screening) 기술이 주목받고 있다. 기존의 상호작용 예측 인공지능 모델들은 학습에 사용한 구조에 대해서는 높은 예측 성능을 보여주지만, 새로운 단백질 구조에 대해서는 낮은 성능을 보이는 과적합(over-fitting)이 문제가 됐다. 과적합 문제는 일반적으로 모델의 복잡도에 비해 데이터가 적을 때 발생한다. 이번 연구는 이러한 과적합 문제를 해결함으로써 다양한 단백질에 대해 고른 성능을 보여주는 예측 모델을 개발하는데 주안점을 뒀다. 연구진은 물리화학적 아이디어들을 딥러닝 모델에 적용해 모델의 복잡도를 줄임과 동시에 물리 시뮬레이션을 통해 부족한 데이터를 보강함으로써 과적합 문제를 해결하고자 하였다. 단백질 원자와 리간드 원자 사이의 거리에 따른 반데르발스 힘, 수소 결합력 등을 물리화학적 방정식으로 모델링하고, 매개변수를 딥러닝으로 예측함으로써 물리 법칙을 만족하는 예측을 가능하게 했다. 또한, 학습에 사용한 단백질-리간드 결정 구조가 실험적으로 판명된 가장 안정한 구조임에 착안했다. 부족한 실험 데이터를 보강하기 위해 불안정한 단백질-리간드 구조로 이루어진 수십만 개의 인공 데이터를 생성해 학습에 활용했고, 그 결과 생성된 구조에 비해 실제 구조를 안정하게 예측하도록 모델을 학습할 수 있었다. 연구진은 개발된 모델의 성능을 검증하기 위해 대조군으로 `CASF-2016 벤치마크'를 활용했다. 이 벤치마크는 다양한 단백질-리간드 구조들 사이에서 실험적으로 판명된 결정 구조에 근접한 구조를 찾는 도킹과 상대적으로 결합력이 큰 단백질-리간드 쌍을 찾는 스크리닝 등 실제 약물을 개발하는 과정에 필수적인 과제를 포함하고 있다. 검증 테스트 결과 기존에 보고된 기술에 비해 높은 도킹 및 스크리닝 성공률을 보여줬으며, 특히 스크리닝 성능은 기존에 보고된 최고 성능 대비 약 두 배 높은 수치를 보였다. 연구진이 개발한 물리 기반 딥러닝 방법론의 또 다른 장점은 예측의 결과를 물리적으로 해석 가능하다는 것이다. 이는 딥러닝으로 최적화된 물리화학 식을 통해 최종 상호작용 값을 예측하기 때문이다. 리간드 분자 내 원자별 상호작용 에너지의 기여도를 분석함으로써 어떤 작용기가 단백질-리간드 결합에 있어서 중요한 역할을 했는지 파악할 수 있으며, 이와 같은 정보는 추후 약물 설계를 통해 성능을 높이는 데 직접 활용할 수 있다. 공동 제1 저자로 참여한 화학과 문석현, 정원호, 양수정(현재 MIT 박사과정) 박사과정 학생들은 "데이터가 적은 화학 및 바이오 분야에서 일반화 문제는 항상 중요한 문제로 강조돼왔다ˮ며 "이번 연구에서 사용한 물리 기반 딥러닝 방법론은 단백질-리간드 간 상호작용 예측 뿐 아니라 다양한 물리 문제에 적용될 수 있을 것ˮ이라고 말했다. 한국연구재단의 지원을 받아 수행된 이번 연구는 국제 학술지 `Chemical Science(IF=9.825)' 2022년 4월 13호에 표지 논문 및 `금주의 논문(Pick of the Week)'으로 선정됐다. (논문명 : PIGNet: a physics-informed deep learning model toward generalized drug–target interaction predictions, 논문 링크 : https://doi.org/10.1039/D1SC06946B)
2022.05.17
조회수 9403
두뇌 신경 조율 활동을 모방한 저전력 인공지능 하드웨어 핵심기술 개발
우리 대학 신소재공학과 김경민 교수 연구팀이 두뇌에서 일어나는 신경 조율 활동을 구현한 인공지능용 하드웨어와 관련 알고리즘의 개발에 성공했다고 19일 밝혔다. 4차 산업 혁명 시대를 맞아 인공지능 기술(Artificial Intelligence; AI)의 연구가 활발해지고 이에 따라 인공지능 기반 전자기기들의 개발 및 제품 출시가 가속화되고 있다. 인공지능을 전자기기에서 구현하기 위해서 맞춤형 하드웨어의 개발 또한 뒷받침돼야 하는데, 현재 대부분의 인공 지능용 전자기기들은 많은 연산량을 수행하기 위해 높은 전력 소모와 고도로 집적된 메모리 배열을 사용하고 있다. 인공 지능의 능력 향상을 위해 이러한 전력 소모 및 집적화 한계의 문제를 해결하는 것은 인공 지능 기술 분야의 커다란 과제이며, 인간의 뇌 활동에서 문제 해결의 단서를 찾고자 하는 노력이 계속돼왔다. 김경민 교수 연구팀은 인간의 두뇌 신경망이 신경 조율(Neuromodulation) 기능을 통해 연결 구조를 상황에 따라 지속적으로 변화시키는 것을 모방, 인공 지능을 위한 수학적 연산을 효율적으로 처리할 수 있는 기술을 개발했다. 두뇌에서는 학습하는 과정에서 실시간으로 신경망의 연결도를 변경해 필요에 따라 기억을 저장하거나 불러내는데, 이러한 신경 조율 기능을 하드웨어에서 직접 구현하는 새로운 방식의 인공 지능 학습 방식을 제시한 것이다. 연구팀은 개발된 기술의 효율성을 증명하기 위해 독자적인 전자 시냅스 소자가 탑재된 인공 신경망 하드웨어를 제작했으며, 여기에 개발한 알고리즘을 적용해 실제 인공지능 학습을 진행했고, 그 결과 인공지능 학습에 필요한 에너지를 37% 절약할 수 있었다. 공동 제1 저자인 신소재공학과 정운형 박사과정과 전재범 박사과정은 "인간의 두뇌는 생존을 위해 에너지 소모를 최소화하는 방향으로 진화해왔다. 이번 연구에서는 간단한 회로의 구성만으로 인간 두뇌의 학습 방식을 구현하였으며, 이를 통해 40%에 가까운 에너지를 줄일 수 있었다, 이는 범용성 있게 모든 SNN(스파이킹 뉴럴 네트워크) 인공 신경망에서 사용 가능한 장점을 가진다ˮ며 "뇌 활동을 모방해 개발한 새로운 학습 방식의 착안은 앞으로 인공 지능 분야의 소프트웨어·하드웨어 분야가 나아가야 할 길의 이정표가 될 것이다ˮ라고 말했다. 이러한 두뇌 신경 활동을 모방한 학습 알고리즘은 기존 전자기기 및 상용화된 반도체 하드웨어에 적용 및 호환을 할 수 있으며 차세대 인공 지능용 반도체 칩의 설계에 사용할 수 있을 것으로 기대된다. 이번 연구는 국제 학술지 `어드밴스드 펑셔널 머터리얼즈(Advanced Functional Materials)'에 지난 3월 31일 자에 게재됐으며 한국연구재단, ㈜SK Hynix, 나노종합기술원(NNFC) 및 KAIST의 지원을 받아 수행됐다. (논문명: Demonstration of Neuromodulation-inspired Stashing System for Energy-efficient Learning of Spiking Neural Network using a Self-Rectifying Memristor Array)
2022.04.19
조회수 9658
강화학습을 활용한 인공지능으로 자유구조 메타표면 최적화 성공
우리 대학 전기및전자공학부 장민석 교수 연구팀이 KC ML2(반도체 제조 솔루션 기업 KC에서 설립한 연구조직) 박찬연 박사와 공동연구를 통해 강화학습에 기반한 자유 구조의 메타 표면 구조 설계 방법을 제안했다고 25일 밝혔다. 메타 표면은 빛의 파장보다 훨씬 작은 크기의 구조를 이용해 이전에 없던 빛의 성질을 달성하는 나노광학 소자를 뜻한다. 나노광학 소자는 빛의 특성을 미시 단위에서 제어하여, 자율주행에 쓰이는 라이다(LiDAR) 빔조향 장치, 초고해상도 이미징 기술, 디스플레이에 활용되는 발광소자의 광특성 제어, 홀로그램 생성 등에 활용될 수 있다. 최근 나노광학 소자에 대한 기대 성능이 높아지면서, 이전에 있던 소자구조를 훨씬 뛰어넘는 성능을 달성하기 위해 자유 구조를 가지는 소자의 최적화에 관한 관심이 증가하고 있다. 자유 구조와 같이 넓은 설계공간을 가진 문제에 대해 강화학습을 적용해 해결한 사례는 이번이 최초다. 우리 대학 서동진 연구원 및 ML2 남원태 연구원이 공동 제1 저자로 참여한 이번 연구는 국제 학술지 `ACS 포토닉스(ACS Photonics)' 2022년 2월호 전면 표지논문으로 게재됐다. (논문명 : Structural Optimization of a One-Dimensional Freeform Metagrating Deflector via Deep Reinforcement Learning) 강화학습은 동물이 학습하는 방법을 모방한 인공지능 방법론이다. 동물 행동 심리학에서 `스키너의 상자'라고 알려진 실험이 그 모티브가 되었는데, 해당 실험은 상자 내부에 쥐를 넣고 누르면 먹이가 나오는 지렛대를 함께 두는 방식으로 진행된다. 처음에 무작위 행동을 하던 쥐는 지렛대를 누르면 먹이가 나오는 것을 확인한다. 시간이 지날수록 더 높은 빈도수로 지렛대를 누르게 되는데, 이렇게 어떠한 보상(먹이)이 행동(지렛대를 누르는 행위)을 `강화'하는 것을 관찰할 수 있다. 해당 실험과 매우 유사한 구조를 갖는 강화학습은 행동 주체가 자기를 둘러싼 `환경'으로부터 `보상'을 받으면서 환경에 대해 배워나가는 인공지능 방법론이다. 2016년 이세돌 9단과의 대국에서 승리한 구글 딥마인드의 `알파고(AlphaGo)'가 그 대표적 사례다. 알파고는 바둑판으로 표현되는 환경과의 상호작용을 통해 바둑의 복잡한 규칙을 학습했고, 우주에 있는 원자보다 많다고 알려진 경우의 수 중 최적에 가까운 선택을 할 수 있었다. 최근 인공지능 학계에서 강화학습은 인간의 지능과 가장 유사한 형태의 인공지능 방법론으로 크게 주목받고 있다. 연구팀은 복잡한 환경을 쉽게 학습할 수 있는 강화학습의 특징을 메타 표면 자유 구조의 최적화에 활용하는 아이디어를 제안했다. 이전에 메타 표면 자유 구조 최적화 기술은 너무 많은 경우의 수로 인해 해결하기 어려운 것으로 여겨졌다. 따라서 기존 연구 방향은 주로 간단한 기본도형 등으로 구조를 단순화한 방식을 활용했다. 하지만 해당 방식은 기하학적 구조가 제한된다는 한계가 있었고, 더욱 복잡한 구조에 대한 최적화 기술은 달성하기 어려운 것으로 여겨졌다. 연구팀이 제안한 알고리즘은 아주 간단한 아이디어에서 출발한다. 강화학습의 `행동'을 구조의 구성요소를 하나씩 `뒤집는' 것으로 정의하는 것이다. 이것은 기존에 구조를 전체적으로 생성하는 방식으로만 생각되었던 자유 구조의 최적화에 대한 발상을 뒤집는 것이었다. 연구팀은 해당 방법을 이용해 메타 표면에 대한 특별한 사전지식 없이도 가능한 구조를 넓게 탐색하고 최적 구조를 발견할 수 있음을 보였다. 또한, 많은 입사 조건에서 최신 성능과 비슷하거나 앞서며 특정 조건에서는 100%에 가까운 효율을 달성했다. 이번 연구를 통해 자유 구조 최적화 분야의 새로운 돌파구를 찾을 것으로 기대되며, 광소자뿐 아니라 많은 분야의 소자 구조 최적화에도 활용될 수 있을 것으로 기대된다. 제1 저자인 서동진 연구원은 "강화학습은 복잡한 환경에서 최적의 경우를 찾는 데에 효과적인 알고리즘이다. 이번 연구에서 해당 방법으로 자유 구조의 최적화를 수행하는 것에 성공하는 사례를 남겨 기쁘다ˮ고 말했다. 장민석 교수는 "광공학에 인공지능 기술을 적용하는 분야에서 좋은 결과가 나와 과학의 위상을 높이는 데 기여하기를 희망한다ˮ고 말했다. 한편 이번 연구는 한국연구재단의 중견연구자지원사업(전략연구), 한-스위스 이노베이션프로그램, 그리고 미래소재디스커버리 사업의 지원을 받아 수행됐다.
2022.02.25
조회수 9466
세계 최초 그래프 기반 인공지능 추론 가능한 SSD 개발
우리 대학 전기및전자공학부 정명수 교수 연구팀(컴퓨터 아키텍처 및 메모리 시스템 연구실)이 세계 최초로 그래프 기계학습 추론의 그래프처리, 그래프 샘플링 그리고 신경망 가속을 스토리지/SSD 장치 근처에서 수행하는 `전체론적 그래프 기반 신경망 기계학습 기술(이하 홀리스틱 GNN)'을 개발하는데 성공했다고 10일 밝혔다. 연구팀은 자체 제작한 프로그래밍 가능 반도체(FPGA)를 동반한 새로운 형태의 계산형 스토리지/SSD 시스템에 기계학습 전용 신경망 가속 하드웨어와 그래프 전용 처리 컨트롤러/소프트웨어를 시제작했다. 이는 이상적 상황에서 최신 고성능 엔비디아 GPU를 이용한 기계학습 가속 컴퓨팅 대비 7배의 속도 향상과 33배의 에너지 절약을 가져올 수 있다고 밝혔다. 그래프 자료구조가 적용된 새로운 기계학습 모델은 기존 신경망 기반 기계학습 기법들과 달리, 데이터 사이의 연관 관계를 표현할 수 있어 페이스북, 구글, 링크드인, 우버 등, 대규모 소셜 네트워크 서비스(SNS)부터, 내비게이션, 신약개발 등 광범위한 분야와 응용에서 사용된다. 예를 들면 그래프 구조로 저장된 사용자 네트워크를 분석하는 경우 일반적인 기계학습으로는 불가능했던 현실적인 상품 및 아이템 추천, 사람이 추론한 것 같은 친구 추천 등이 가능하다. 이러한 신흥 그래프 기반 신경망 기계학습은 그간 GPU와 같은 일반 기계학습의 가속 시스템을 재이용해 연산 되어왔는데, 이는 그래프 데이터를 스토리지로부터 메모리로 적재하고 샘플링하는 등의 데이터 전처리 과정에서 심각한 성능 병목현상과 함께 장치 메모리 부족 현상으로 실제 시스템 적용에 한계를 보여 왔다. 정명수 교수 연구팀이 개발한 홀리스틱 GNN 기술은 그래프 데이터 자체가 저장된 스토리지 근처에서 사용자 요청에 따른 추론의 모든 과정을 직접 가속한다. 구체적으로는 프로그래밍 가능한 반도체를 스토리지 근처에 배치한 새로운 계산형 스토리지(Computational SSD) 구조를 활용해 대규모 그래프 데이터의 이동을 제거하고 데이터 근처(Near Storage)에서 그래프처리 및 그래프 샘플링 등을 가속해 그래프 기계학습 전처리 과정에서의 병목현상을 해결했다. 일반적인 계산형 스토리지는 장치 내 고정된 펌웨어와 하드웨어 구성을 통해서 데이터를 처리해야 했기 때문에 그 사용에 제한이 있었다. 그래프처리 및 그래프샘플링 외에도, 연구팀의 홀리스틱 GNN 기술은 인공지능 추론 가속에 필요한 다양한 하드웨어 구조, 그리고 소프트웨어를 후원할 수 있도록 다수 그래프 기계학습 모델을 프로그래밍할 수 있는 장치수준의 소프트웨어와 사용자가 자유롭게 변경할 수 있는 신경망 가속 하드웨어 프레임워크 구조를 제공한다. 연구팀은 홀리스틱 GNN 기술의 실효성을 검증하기 위해 계산형 스토리지의 프로토타입을 자체 제작한 후, 그 위에 개발된 그래프 기계학습용 하드웨어 *RTL과 소프트웨어 프레임워크를 구현해 탑재했다. 그래프 기계학습 추론 성능을 제작된 계산형 스토리지 가속기 프로토타입과 최신 고성능 엔비디아 GPU 가속 시스템(RTX 3090)에서 평가한 결과, 홀리스틱 GNN 기술이 이상적인 상황에서 기존 엔비디아 GPU를 이용해 그래프 기계학습을 가속하는 시스템의 경우에 비해 평균 7배 빠르고 33배 에너지를 감소시킴을 확인했다. 특히, 그래프 규모가 점차 커질수록 전처리 병목현상 완화 효과가 증가해 기존 GPU 대비 최대 201배 향상된 속도와 453배 에너지를 감소할 수 있었다. ☞ RTL (Registor Transistor Logic): 저항과 트랜지스터로 구성한 컴퓨터에 사용되는 회로 정명수 교수는 "대규모 그래프에 대해 스토리지 근처에서 그래프 기계학습을 고속으로 추론할 뿐만 아니라 에너지 절약에 최적화된 계산형 스토리지 가속 시스템을 확보했다ˮ며 "기존 고성능 가속 시스템을 대체해 초대형 추천시스템, 교통 예측 시스템, 신약 개발 등의 광범위한 실제 응용에 적용될 수 있을 것ˮ이라고 말했다. 한편 이번 연구는 미국 산호세에서 오는 2월에 열릴 스토리지 시스템 분야 최우수 학술대회인 `유즈닉스 패스트(USENIX Conference on File and Storage Technologies, FAST), 2022'에 관련 논문(논문명: Hardware/Software Co-Programmable Framework for Computational SSDs to Accelerate Deep Learning Service on Large-Scale Graphs)으로 발표될 예정이다. 해당 연구는 삼성미래기술육성사업 지원을 받아 진행됐고 자세한 내용은 연구실 웹사이트(http://camelab.org)에서 확인할 수 있다.
2022.01.10
조회수 8972
3차원 표정인식용 인공지능 라이트필드 카메라 개발
우리 대학 바이오및뇌공학과 정기훈, 이도헌 교수 공동연구팀이 근적외선 기반 라이트필드 카메라와 인공지능기술을 융합하여 얼굴의 감정표현을 구분하는 기술을 개발했다고 7일 밝혔다. 라이트필드 카메라는 일반적인 카메라와 다르게 미세렌즈 배열(Microlens arrays)을 이미지센서 앞에 삽입해 손에 들 수 있을 정도로 작은 크기이지만 한 번의 촬영으로 빛의 공간 및 방향 정보를 획득한다. 이를 통해 다시점 영상, 디지털 재초점, 3차원 영상 획득 등 다양한 영상 재구성이 가능하고 많은 활용 가능성으로 주목받고 있는 촬영 기술이다. 그러나 기존의 라이트필드 카메라는 실내조명에 의한 그림자와 미세렌즈 사이의 광학 크로스토크(Optical crosstalk)에 의해 이미지의 대비도 및 3차원 재구성의 정확도가 낮아지는 한계점이 있다. 연구팀은 라이트필드 카메라에 근적외선 영역의 수직 공진형 표면 발광 레이저(VCSEL) 광원과 근적외선 대역필터를 적용해 기존 라이트필드 카메라가 갖는 조명 환경에 따라 3차원 재구성의 정확도가 낮아지는 문제를 해결했다. 이를 통해 얼굴 정면 기준 0도, 30도, 60도 각도의 외부 조명에 대해, 근적외선 대역필터를 사용한 경우 최대 54%까지 영상 재구성 오류를 줄일 수 있었다. 또한, 가시광선 및 근적외선 영역을 흡수하는 광 흡수층을 미세렌즈 사이에 제작하면서 광학 크로스토크를 최소화해 원시 영상의 대비도를 기존 대비 약 2.1배 정도로 획기적으로 향상하는 데 성공했다. 이를 통해 기존 라이트필드 카메라의 한계를 극복하고 3차원 표정 영상 재구성에 최적화된 근적외선 기반 라이트필드 카메라(NIR-LFC, NIR-based light-field camera) 개발에 성공했다. 연구팀은 개발한 카메라를 통해 피험자의 다양한 감정표정을 가진 얼굴의 3차원 재구성 이미지를 조명 환경과 관계없이 고품질로 획득할 수 있었다. 획득한 3차원 얼굴 이미지로부터 기계 학습을 통해 성공적으로 표정을 구분할 수 있었고, 분류 결과의 정확도는 평균 85% 정도로 2차원 이미지를 이용했을 때보다 통계적으로 유의미하게 높은 정확도를 보였다. 이뿐만 아니라, 연구팀은 표정에 따른 얼굴의 3차원 거리 정보의 상호의존성을 계산한 결과를 통해, 라이트필드 카메라가 인간이나 기계가 표정을 판독할 때 어떤 정보를 활용하는지에 대한 단서를 제공할 수 있음을 확인했다. 정기훈 교수는 "연구팀이 개발한 초소형 라이트필드 카메라는 정량적으로 인간의 표정과 감정을 분석하기 위한 새로운 플랫폼으로 활용될 수 있을 것으로 기대된다ˮ며 "모바일 헬스케어, 현장 진단, 사회 인지, 인간-기계 상호작용 등의 분야에서 활용될 것ˮ이라고 연구의 의미를 설명했다. 우리 대학 바이오및뇌공학과 배상인 박사과정 졸업생이 주도한 이번 연구 결과는 국제저명학술지 `어드밴스드 인텔리전트 시스템즈(Advanced Intelligent Systems)'에 2021년 12월 16일 온라인 게재됐다. (논문명: Machine-Learned Light-Field Camera that Reads Facial Expression from High-Contrast and Illumination Invariant 3D Facial Images). 한편 이번 연구는 과학기술정보통신부 및 산업통상자원부의 지원을 받아 수행됐다.
2022.01.07
조회수 8190
인공지능의 오랜 난제를 뇌 기반 인공지능으로 풀다
우리 대학 바이오및뇌공학과 이상완 교수(신경과학 인공지능 융합연구센터장) 연구팀이 뇌 기반 인공지능 기술을 이용해 인공지능의 난제 중 하나인 과적합-과소적합 상충 문제를 해결하는 원리를 풀어내는 데 성공했다고 5일 밝혔다. 이상완 교수와 김동재 박사(現 뉴욕대학교 박사후 연구원)가 주도하고 우리 대학 정재승 교수가 참여한 이번 연구는 `강화학습 중 편향-분산 상충 문제에 대한 전두엽의 해법'이라는 제목으로 국제 학술지 셀(Cell)의 오픈 액세스 저널인 `셀 리포트(Cell Reports)'에 지난해 12월 28일 字 온라인판에 게재됐다. (논문명: Prefrontal solution to the bias-variance tradeoff during reinforcement learning) 최근 인공지능 모델들은 다양한 실제 문제들에 대해 최적의 해법을 제시하지만, 상황 변화에 유동적으로 대응하는 부분에 있어서는 여전히 어려움을 겪고 있다. 기계학습에서는 이를 과소적합-과적합의 위험성 (underfitting-overfitting risk) 또는 편향-분산 상충 문제(bias-variance tradeoff)라 하며 오랫동안 연구됐지만, 실제 세계와 같이 상충 조건이 계속 변하는 상황에서의 명확한 해법은 아직 제안된 바가 없다. 반면 인간은 현재 주어진 문제에 집중하면서도(과소적합 문제 해결), 당면 문제에 과하게 집착하지 않고(과적합 문제 해결) 변하는 상황에 맞게 유동적으로 대처한다. 연구팀은 뇌 데이터, 확률과정 추론 모형, 강화학습 알고리즘을 이용해 인간의 뇌가 이 문제를 어떻게 해결하는지에 대한 이론적 틀을 마련하고 이로부터 유동적인 메타 강화학습 모델을 도출해냈다. 놀랍게도 인간의 뇌는 중뇌 도파민 회로와 전두엽에서 처리되는 `예측 오차'의 하한선(prediction error lower bound)이라는 단 한 가지 정보를 이용해 이 문제를 해결한다. 우리의 전두엽, 특히 복외측전전두피질은 현재 내가 사용하고 있는 문제 해결 방식으로 주어진 문제를 얼마나 잘 풀 수 있을지에 대한 기대치의 한계를 추정하고(예: `이렇게 풀면 90점까지는 받을 수 있어'), 변화하는 상황에 맞춰 최적인 문제 해결전략을 유동적으로 선택하는 과정 (예: `이렇게 풀면 기껏해야 70점이니 다르게 풀어보자')을 통해 과소적합-과적합의 위험을 최소화하게 된다. 이상완 교수 연구팀은 2014년 해당 전두엽 영역이 환경의 불확실성을 바탕으로 강화학습전략을 유동적으로 조절하는 데 관여한다는 사실을 처음 발견했고(`뉴런(Neuron)' 학술지에 발표), 2015년에는 인과관계 추론 과정에도 관여한다는 사실을 발견했다(`PLOS Biology' 학술지에 발표). 이어 2019년에는 해당 뇌 영역이 문제의 복잡도까지 고려할 수 있다는 사실을 발견했다(`네이처 커뮤니케이션즈(Nature Communications)' 학술지에 발표). 이러한 일련의 연구 결과들은 자신의 학습 및 추론 능력을 스스로 평가하는 인간의 메타 인지 능력을 보여주는 증거로, 이 능력을 바탕으로 인공지능이 풀기 어려워하는 현실 세계의 다양한 상충적 상황들을 풀어낼 수 있다는 `전두엽 메타 학습 이론'을 정립한 바 있다(`사이언스 로보틱스(Science Robotics)' 학술지에 발표). 이번 연구는 이 이론에 기반해 인공지능의 오랜 난제 중 하나인 과소적합-과적합 상충 문제를 실제로 풀어낸 최초의 사례로 평가된다. 연구를 통해 개발된 메타 강화학습 모델을 이용하면 간단한 게임을 통해 인간의 유동적 문제 해결 능력을 간접적으로 측정할 수 있다. 더 나아가 스마트 교육이나 중독과 관련된 인지 행동치료에 적용할 경우 상황 변화에 유동적으로 대처하는 인간의 문제 해결 능력 자체를 향상할 수 있을 것으로 기대된다. 차세대 인공지능, 스마트 교육, 인지 행동치료 등 다양한 분야에 파급력이 큰 원천 기술로 최근 국내 및 해외 특허 출원이 완료된 상태다. 연구를 주도한 제1 저자 김동재 박사는 "인간 지능의 특장점에 대한 이해가 얼마나 중요한지 보여주는 연구 중 하나ˮ라고 말했다. 연구 책임자인 이상완 교수는 "인공지능이 우리보다 잘 푸는 문제가 많지만, 반대로 인공지능으로 풀기 어려운 문제들이 우리에게는 정말 쉽게 느껴지는 경우들이 많다. 인간의 다양한 고위 수준 능력을 인공지능 이론 관점에서 형식화하는 연구를 통해 인간 지능의 비밀을 하나씩 풀어나갈 수 있을 것으로 기대된다ˮ라며 "이러한 뇌 기반 인공지능 연구는 인간의 지능을 공학적으로 탐구하는 과정으로 볼 수 있으며, 인간과 인공지능이 서로 도우며 함께 성장해 나갈 수 있는 명확한 기준점을 마련할 수 있을 것ˮ이라고 말했다. 이상완 교수는 뇌 기반 인공지능 연구의 독창성과 도전성을 인정받아 구글 교수 연구상과 IBM 학술상을 받은 바 있다. 연구팀은 과학기술정보통신부의 재원으로 정보통신기획평가원의 지원을 받아 설립한 KAIST 신경과학-인공지능 융합연구센터에서 기반 기술을 활용해 인간 지능을 모사한 차세대 인공지능 모델을 개발하고, 아울러 딥마인드, IBM 인공지능 연구소, MIT, 옥스퍼드 대학 등 국제 공동연구 협약 기관과 공동연구를 통해 기술의 파급력을 높여나갈 계획이라고 말했다. 한편 이번 연구는 삼성전자 미래기술육성센터, 과학기술정보통신부 정보통신기획평가원 및 한국연구재단의 지원을 받아 수행됐다.
2022.01.05
조회수 9372
형광 염색 없이 분자 정보를 보는 AI 현미경 개발
우리 대학 물리학과 박용근 석좌교수 연구팀이 형광 염색 없이 세포의 분자 정보를 볼 수 있는 인공지능 현미경 기술을 개발했다고 20일 밝혔다. 광학 현미경은 수백 년 전부터 현재에 이르기까지 생물학 및 의학에서 가장 중요하게 쓰이는 기술 중 하나로, 이미지 형성 원리에 따라 여러 형태로 발전해왔다. 최근 수십 년간 분자생물학이 눈부시게 발전하면서 세포 내의 특정 구조를 형광(fluorescence) 으로 표지하는 것이 가능해졌고, 이처럼 높은 생화학적 특이성(biochemical specificity) 덕분에 형광 현미경은 현재 가장 폭넓게 쓰이는 광학 현미경 기술이 됐다. 그러나 형광 현미경은 형광 표지 자체가 세포를 변형하는 것이기 때문에 세포에 부담을 주게 되고, 밝기와 세포독성, 안정성 문제 때문에 초고속 또는 장기간 측정이 힘들며, 제한된 색깔로 인해 다양한 구조를 동시에 보는 것이 어려운 근본적인 한계가 있다. 이와는 대조적으로, 각 물질과 빛의 상호작용을 결정하는 근본적인 특성인 굴절률(refractive index)을 이용해 아무런 염색을 하지 않아도 되는 현미경 기술 또한 꾸준히 발전해왔다. 굴절률로부터 파생되는 빛의 흡수, 위상차 등을 이용한 전통적인 현미경은 물론, 최근에는 굴절률 자체를 3차원 상에서 정량적으로 측정하는 다양한 홀로그래픽 현미경(holographic microscopy) 기술이 박용근 교수 연구팀에서 개발돼 상용화된 바 있다. 이러한 비표지(label-free) 현미경 기술은 형광 현미경과 비교해 여러 가지 장점을 갖고 있지만, 굴절률과 세포 내 구조들의 관계가 명확하지 않아 분자 특이성이 떨어진다는 단점이 있었다. 박용근 교수 연구팀에서는 2012년 초부터 조영주 졸업생(제1 저자, 물리학과·수리과학과 학사 11학번·KAIST 총장 장학생, 現 스탠퍼드대학교 응용물리학과 박사과정) 주도로 홀로그래픽 현미경 분야에 인공지능을 도입해 특이성 문제를 해결하려는 일련의 연구가 시작됐다. 우선 형태적으로는 비슷하나 생화학적인 구성에 차이가 있는 시료(여러 종의 박테리아, 다양한 분류의 백혈구 등)의 굴절률 영상은 사람 눈에는 비슷하게 보이는데, 흥미롭게도 인공지능은 이를 높은 정확도로 분류할 수 있음을 보였다(2013-2014년 KAIST 학부연구프로그램(URP) 이후, 2015년 Optics Express, 2017년 Science Advances, 2020년 ACS Nano 등 게재). 이러한 결과는 매우 다양한 생체 시료에서 일관되게 관찰됐고, 따라서 연구팀은 생화학적 특이성이 높은 정보가 굴절률의 공간 분포에 숨겨져 있다는 가설을 세웠다. 세포생물학 분야 최고 권위지인 `네이처 셀 바이올로지(Nature Cell Biology, IF 28.82)'에 12월 7일 발표된 이번 연구(논문명: Label-free multiplexed microtomography of endogenous subcellular dynamics using generalizable deep learning)에서, 연구팀은 홀로그래픽 현미경 영상으로부터 형광 현미경 영상을 직접 예측할 수 있음을 보임으로써 이 가설을 증명했다. 인공지능이 찾아낸 굴절률 공간 분포와 세포 내 주요 구조 간의 정량적인 관계를 이용해 굴절률의 공간 분포 해독이 가능해졌고, 놀랍게도 이러한 관계는 세포 종류와 관계없이 보존돼 있음을 확인했다. 이 과정에서 만들어진 `인공지능 현미경'은 홀로그래픽 현미경과 형광 현미경의 장점만을 갖는다. 즉, 형광 표지 없이 형광 현미경의 특이적인 영상을 얻을 수 있다. 따라서 자연 상태 그대로의 세포에서 동시에 수많은 종류의 구조를 3차원으로 볼 수 있으며, 밀리초(ms) 수준의 초고속 측정과 수십 일 수준의 장기간 측정이 가능해졌다. 더욱이 기존 데이터에 포함되지 않은 새로운 종류의 세포에도 즉시 적용이 가능하기에, 다양한 생물학 및 의학 연구에 응용이 가능할 것으로 기대된다. 이번 연구는 조영주 박사과정과 박용근 교수가 지난 10여 년간 발전시켜온 광학 및 인공지능 기술력 이외에도, 다학제적 접근과 KAIST 기술을 바탕으로 한 창업 덕분에 가능했다. 생명과학과 허원도 교수(공동 교신저자)와 박외선 박사(공동 제1 저자)가 오랜 기간 발전시켜온 분자생물학 및 형광 현미경 기술 덕분에 인공지능 학습에 필요한 데이터를 얻을 수 있었으며, 조영주 박사과정이 허원도 교수 연구팀에서 2015년 1년간 연구했던 경험 덕분에 구체적인 아이디어가 나오게 됐다. 또한 박용근 교수 연구팀 홀로그래픽 현미경 기술로 창업한 ㈜토모큐브를 통해 현미경 및 데이터 형식이 규격화돼 대규모 인공지능 학습이 용이했고, 이를 바탕으로 ㈜토모큐브 조형주 연구원(공동 제1 저자) 및 민현석 연구원(공동 교신저자) 등 인공지능 전문 인력이 합류하면서 최신 인공지능 기법들의 빠른 도입이 가능했다. 한편 이번 연구는 한국연구재단의 창의연구사업, 과학기술정보통신부의 정보통신방송 기술개발사업 (홀로그램핵심기술), 일자리진흥원의 연구장비개발 및 고도화지원사업, 한국보건산업진흥원의 보건의료기술 연구개발사업의 지원을 받아 수행됐다.
2021.12.20
조회수 8619
신소재 데이터 고속 분석을 위한 인공지능 훈련 방법론 개발
우리 대학 신소재공학과 홍승범 교수 연구팀이 시뮬레이션을 기반으로 한 신소재 데이터 분석을 위한 인공지능을 개발했다고 24일 밝혔다. 최근 컴퓨팅 파워가 기하급수적으로 증가함에 따라 인공지능을 활용한 다양한 응용들이 실생활에 활용되고 있으며, 이에 인공지능을 활용해 신소재 데이터를 고속으로 분석하고 소재를 역설계하는 기술의 연구 역시 가속화되고 있다. 최근 인공지능의 효율 및 정확도를 증가시키는 연구를 바탕으로 자율주행 자동차, 데이터베이스 기반의 마케팅 및 물류 시스템 보조 등의 분야에 인공지능의 활용이 높아지고 있다. 특히 신소재 개발에 장시간이 소요되는 점을 고려할 때, 소재 및 공정 개발에 인공지능을 활용해 다양한 구조 및 물성 데이터 사이의 상관관계를 빠르게 분석해 신소재 개발 소요 시간을 획기적으로 줄일 수 있는 인공지능 방법론이 주목을 받고 있다. 그러나 신소재 데이터의 경우, 대량의 유의미한 실험 데이터를 구하기 어렵고 기업들이 중요한 데이터는 대외비로 취급하고 있어서 인공지능을 소재 데이터 영역에 적용하는 것이 상당히 어려운 것이 현실이다. 이런 데이터의 다양성, 크기 및 접근성 문제가 해결돼야 하며, 이를 보완하기 위해 생성 모델 및 적절한 데이터의 합성에 관한 연구가 진행되고 있다. 인공지능의 성능 향상을 위해 생성되는 데이터 또한 실제 소재가 가지는 물리적 제약을 따라야 하며, 소재 데이터의 재료적 특징을 파악할 수 있는 기술이 필요하다. 홍승범 교수 연구팀이 이번에 개발한 인공지능 훈련 방법론은 훈련을 위해 생성되는 데이터가 물리적 제약을 공유하도록 위상 필드 시뮬레이션을 활용해 기초 데이터를 형성하고 소재 데이터가 가지고 있는 실제 측정 과정에서 발생하는 다양한 잡음, 입자의 분포 정보 및 입자의 경계를 모사해 크기가 작은 소재 데이터의 한계를 해결했다. 기존에 수작업으로 작성한 소재 데이터를 활용한 인공지능과의 상 분리 성능을 비교했으며, 생성된 데이터의 모사 요소가 상 분리에 영향을 미치는 영향을 파악했다. 아울러 이번 연구에서 제시하는 소재 데이터 생성을 활용한 인공지능 훈련 방법은 기존의 수작업으로 훈련 데이터를 준비하는 시간을 크게 단축할 수 있으며, 인공지능의 전이 학습 및 다양한 물리적 제약을 바탕으로 하는 위상 필드 시뮬레이션 활용을 바탕으로 다양한 소재 데이터에 빠르게 적용할 수 있는 장점이 있다. 홍승범 교수는 "인공지능은 분야를 막론하고 다양한 영역에서 활용되고 있으며, 소재 분야 역시 인공지능의 도움을 바탕으로 신소재 개발을 더욱 빠르게 완료할 수 있는 세상을 맞이할 것이다ˮ라며, "이번 연구 내용을 신소재 개발에 바로 적용하기에는 데이터 합성 측면에서의 여전히 보강이 필요하지만, 소재 데이터 활용에 큰 문제가 됐던 훈련 데이터를 준비하는 긴 시간을 단축해 소재 데이터의 고속 분석 가능성을 연 것에 연구의 의의가 있다ˮ고 말했다. 신소재공학과 염지원 연구원, 노스웨스턴(Northwestern) 대학의 티베리우 스탄(Tiberiu Stan) 박사가 공동 제1 저자로 참여한 이번 연구는 노스웨스턴 대학의 피터 부리스(Peter Voorhees) 교수 연구실과 함께 진행됐으며 연구 결과는 국제 학술지 `악타 머터리얼리아(Acta Materialia)'에 게재됐다. (논문명: Segmentation of experimental datasets via convolutional neural networks on phase field simulations) 한편 이번 연구는 KAIST 글로벌특이점 연구 지원으로 수행됐다.
2021.08.24
조회수 8575
딥러닝 생성모델의 오류 수정 기술 개발
우리 대학 AI대학원 최재식 교수(설명가능 인공지능연구센터장) 연구팀이 심층 학습(이하 딥러닝) 생성모델의 오류 수정 기술을 개발했다고 25일 밝혔다. 최근 딥러닝 생성모델(Deep Generative Models)은 이미지, 음성뿐만 아니라 문장 등 새로운 콘텐츠를 생성하는 데 널리 활용되고 있다. 이런 생성모델의 발전에도 불구하고 최근 개발된 생성모델도 여전히 결함이 있는 결과를 만드는 경우가 많아, 국방, 의료, 제조 등 중요한 작업 및 학습에 생성모델을 활용하기는 어려운 점이 있었다. 최 교수 연구팀은 딥러닝 내부를 해석하는 설명가능 인공지능 기법을 활용해, 생성모델 내부에서 이미지 생성과정에서 문제를 일으키는 유닛(뉴런)을 찾아 제거하는 알고리즘을 고안해 생성모델의 오류를 수리했다. 이러한 생성 오류 수리 기술은 신경망 모델의 재학습을 요구하지 않으며 모델 구조에 대한 의존성이 적어, 다양한 적대적 생성 신경망에 폭넓게 응용 및 적용될 수 있을 것으로 기대된다. 또한, 고안된 기술은 딥러닝 생성모델의 신뢰도를 향상해 생성모델이 중요 작업에도 적용될 수 있을 것으로 기대된다. AI대학원의 알리 투씨(Ali Tousi), 정해동 연구원이 공동 제1 저자로 참여한 이번 연구는 `국제 컴퓨터 비전 및 패턴인식 학술대회 (IEEE Conference on Computer Vision and Pattern Recognition, CVPR)'에서 6월 23일 발표됐다. (논문명: Automatic Correction of Internal Units in Generative Neural Networks, CVPR 2021). 적대적 생성 신경망은 생성기와 구분기의 적대적 관계를 이용한 모델로서, 생성 이미지의 품질이 높고 다양성이 높아, 이미지 생성뿐만 아니라 다양한 분야(예, 시계열 데이터 생성)에서 주목받고 있다. 딥러닝 생성모델의 성능을 향상하기 위해서 적대적 생성기법 및 생성기의 새로운 구조 설계 혹은 학습 전략의 세분화와 같은 연구가 활발히 진행되고 있다. 그러나 최신 적대적 생성 신경망 모델은 여전히 시각적 결함이 포함된 이미지를 생성하고 있으며, 재학습을 통해서 이를 해결하기에는 오류 수리를 보장할 수 없으며, 많은 학습 시간과 비용을 요구하게 된다. 이렇게 규모가 큰 최신 적대적 생성 신경망 모델의 일부 오류를 해결하기 위해 모델 전체를 재학습하는 것은 적합하지 않다. 연구팀은 문제 해결을 위해 생성 오류를 유도하는 딥러닝 내부의 유닛(뉴런)을 찾아 제거하는 알고리즘을 개발했다. 알고리즘은 딥러닝 모델의 시각적 결함의 위치를 파악하고, 딥러닝 모델 내 여러 계층에 존재하는 오류를 유발한 유닛을 찾아서 활성화하지 못하도록 하여 결함이 발생하지 않도록 했다. 연구팀은 설명가능 인공지능 기술을 활용해 시각적 결함이 생성된 이미지의 어느 부분에 분포하는지, 또 딥러닝 내부의 어떤 유닛이 결함의 생성에 관여하는지 찾을 수 있었다. 개발된 기술은 딥러닝 생성모델의 오류를 수리할 수 있고, 생성모델의 구조에 상관없이 적용할 수 있다. 연구팀은 전통적인 구조를 가지는 `진행형 생성모델(Progressive GAN, PGGAN)'에서 개발 기술이 효과적으로 생성 오류를 수리할 수 있음을 확인했다. 수리 성능은 매사추세츠 공과대학(MIT)이 보유한 수리 기술 대비 FID 점수가 10점 정도 감소했으며, 사용자 평가에서 시험 이미지 그룹의 약 50%가 결함이 제거됐고, 약 90%에서 품질이 개선됐다는 결과를 얻었다. 나아가 특이 구조를 가지는 `StyleGAN2'와 `U-net GAN'에서도 생성 오류 수리가 가능함을 보임으로써 개발 기술의 일반성과 확장 가능성을 보였다. 연구팀이 개발한 생성모델의 오류 제거 기술은 다양한 이미지 외에도 다양한 생성모델에 적용돼 모델의 결과물에 대한 신뢰성을 높일 것으로 기대된다. 공동 제1 저자인 알리 투씨와 정해동 연구원은 "딥러닝 생성모델이 생성한 결과물에 있는 시각적 오류를 찾고, 이에 상응하는 활성화를 보이는 생성모델 내부의 유닛을 순차적으로 제거함으로써 생성 오류를 수리할 수 있음을 보였다ˮ라며 이는 "충분히 학습된 모델 내부에 미학습 혹은 잘못 학습된 내부요소가 있음을 보여주는 결과다ˮ라고 말했다. 한편 이번 연구는 2021년도 과학기술정보통신부의 재원으로 정보통신기획평가원의 지원을 받은 혁신성장동력프로젝트 설명가능인공지능 및 한국과학기술원 인공지능 대학원 프로그램과제를 통해서 수행됐다.
2021.06.25
조회수 18949
인공지능으로 3차원 고해상도 나노입자 영상화 기술 개발
우리 대학 바이오및뇌공학과 예종철 교수 연구팀이 삼성전자 종합기술원과 공동연구를 통해 나노입자의 3차원 형상과 조성 분포의 복원 성능을 획기적으로 향상한 인공지능 기술을 개발했다고 16일 밝혔다. 공동연구팀은 에너지 분산형 X선 분광법(EDX)을 주사 투과전자현미경(STEM)과 결합한 시스템을 활용했다. 이번 연구를 통해 나노입자를 형성하고 있는 물질의 형상과 조성 분포를 정확하게 재구성함으로써, 실제 상용 디스플레이를 구성하는 양자점(퀀텀닷)과 같은 반도체 입자의 정확한 분석에 도움을 줄 것으로 기대된다. 예종철 교수 연구팀의 한요섭 박사, 차은주 박사과정, 정형진 석사과정과 삼성종합기술원의 이은하 전문연구원팀의 장재덕, 이준호 전문연구원이 공동 제1 저자로 참여한 이번 연구 결과는 국제 학술지 `네이처 머신 인텔리전스(Nature Machine Intelligence)' 2월 8일 字 온라인판에 게재됐다. (논문명 : Deep learning STEM-EDX tomography of nanocrystals) 에너지 분산형 X선 분광법(이하 EDX)은 나노입자의 성분 분석에 주로 이용되며, X선과 반응한 물체의 성분에 따라 고유한 방출 스펙트럼을 보인다는 점에서 화학적인 분석이 가능하다. 퀀텀닷 및 배터리 등 다양한 나노 소재의 열화 메커니즘과 결함을 해석하기 위해 형상 및 조성 분포 분석이 가능한 이 분광법의 필요성과 중요도가 급증하고 있다. 그러나 EDX 측정 신호의 해상도를 향상하기 위해, 나노 소재를 오랜 시간 전자빔에 노출하면 소재의 영구적인 피해가 발생한다. 이로 인해 나노입자의 3차원 영상화를 위한 투사(projection) 데이터 획득 시간이 제한되며, 한 각도에서의 스캔 시간을 단축하거나 측정하는 각도를 줄이는 방식이 사용된다. 기존의 방식으로 획득된 투사 데이터를 이용해 3차원 영상을 복원할 시, 미량 존재하는 원자 신호의 측정이 불가능하거나 복원 영상의 정밀도와 해상도가 매우 낮다. 그러나 공동 연구팀이 자체 개발한 인공지능 기반의 커널 회귀(kernel regression)와 투사 데이터 향상(projection enhancement)은 정밀도와 해상도를 획기적으로 발전시켰다. 연구팀은 측정된 데이터의 분포를 네트워크가 스스로 학습하는 인공지능 기반의 커널 회귀를 통해 스캔 시간이 단축된 투사 데이터의 신호 대 잡음비(SNR)를 높인 데이터를 제공하는 네트워크를 개발했다. 그리고 개선된 고화질의 EDX 투사 데이터를 기반으로 기존의 방법으로는 불가능했던 적은 수의 투사 데이터로부터 더욱 정확한 3차원 복원 영상을 제공하는 데 성공했다. 연구팀이 개발한 알고리즘은 기존의 EDX 측정 신호 기반 3차원 재구성 기법과 비교해 나노입자를 형성하고 있는 원자의 형상과 경계를 뚜렷하게 구별했으며, 복원된 다양한 코어-쉘(core-shell) 구조의 퀀텀닷 3차원 영상이 샘플의 광학적 특성과 높은 상관관계를 나타내는 것이 확인됐다. 예종철 교수는 "연구에서 개발한 인공지능 기술을 통해 상용 디스플레이의 핵심 기반이 되는 퀀텀닷 및 반도체 소자의 양자 효율과 화학적 안정성을 더욱 정밀하게 분석할 수 있다ˮ고 말했다.
2021.02.16
조회수 81918
<<
첫번째페이지
<
이전 페이지
1
2
3
4
5
6
7
8
9
>
다음 페이지
>>
마지막 페이지 9