본문 바로가기
대메뉴 바로가기
KAIST
연구뉴스
유틸열기
홈페이지 통합검색
-
검색
메뉴 열기
%EC%A0%84%EA%B8%B0%EB%B0%8F%EC%A0%84%EC%9E%90%EA%B3%B5%ED%95%99
최신순
조회순
최초 머신러닝 기반 유전체 정렬 소프트웨어 개발
우리 대학 전기및전자공학부 한동수 교수 연구팀이 머신러닝(기계학습)에 기반한 *유전체 정렬 소프트웨어를 개발했다고 12일 밝혔다. ☞ 유전체(genome): 생명체가 가지고 있는 염기서열 정보의 총합이며, 유전자는 생물학적 특징을 발현하는 염기서열들을 지칭한다. 유전체를 한 권의 책이라고 비유하면 유전자는 공백을 제외한 모든 글자라고 비유할 수 있다. 차세대 염기서열 분석은 유전체 정보를 해독하는 방법으로 유전체를 무수히 많은 조각으로 잘라낸 후 각 조각을 참조 유전체(reference genome)에 기반해 조립하는 과정을 거친다. 조립된 유전체 정보는 암을 포함한 여러 질병의 예측과 맞춤형 치료, 백신 개발 등 다양한 분야에서 사용된다. 유전체 정렬 소프트웨어는 차세대 염기서열 분석 방법으로 생성한 유전체 조각 데이터를 온전한 유전체 정보로 조립하기 위해 사용되는 소프트웨어다. 유전체 정렬 작업에는 많은 연산이 들어가며, 속도를 높이고 비용을 낮추는 방법에 관한 관심이 계속해서 증가하고 있다. 머신러닝(기계학습) 기반의 인덱싱(색인) 기법(Learned-index)을 유전체 정렬 소프트웨어에 적용한 사례는 이번이 최초다. 전기및전자공학부 정영목 박사과정이 제1 저자로 참여한 이번 연구는 국제 학술지 `옥스포드 바이오인포메틱스(Oxford Bioinformatics)' 2022년 3월에 공개됐다. (논문명 : BWA-MEME: BWA-MEM emulated with a machine learning approach) 유전체 정렬 작업은 정렬해야 하는 유전체 조각의 양이 많고 참조 유전체의 길이도 길어 많은 연산량이 요구되는 작업이다. 또한, 유전체 정렬 소프트웨어에서 정렬 결과의 정확도에 따라 추후의 유전체 분석의 정확도가 영향을 받는다. 이러한 특성 때문에 유전체 정렬 소프트웨어는 높은 정확성을 유지하며 빠르게 연산하는 것이 중요하다. 일반적으로 유전체 분석에는 하버드 브로드 연구소(Broad Institute)에서 개발한 유전체 분석 도구 키트(Genome Analysis Tool Kit, 이하 GATK)를 이용한 데이터 처리 방법을 표준으로 사용한다. 이들 키트 중 BWA-MEM은 GATK에서 표준으로 채택한 유전체 정렬 소프트웨어이며, 2019년에 하버드 대학과 인텔(Intel)의 공동 연구로 BWA-MEM2가 개발됐다. 연구팀이 개발한 머신러닝 기반의 유전체 정렬 소프트웨어는 연산량을 대폭 줄이면서도 표준 유전체 정렬 소프트웨어 BWA-MEM2과 동일한 결과를 만들어 정확도를 유지했다. 사용한 머신러닝 기반의 인덱싱 기법은 주어진 데이터의 분포를 머신러닝 모델이 학습해, 데이터 분포에 최적화된 인덱싱을 찾는 방법론이다. 데이터에 적합하다고 생각되는 인덱싱 방법을 사람이 정하던 기존의 방법과 대비된다. BWA-MEM과 BWA-MEM2에서 사용하는 인덱싱 기법(FM-index)은 유전자 조각의 위치를 찾기 위해 유전자 조각 길이만큼의 연산이 필요하지만, 연구팀이 제안한 알고리즘은 머신러닝 기반의 인덱싱 기법(Learned-index)을 활용해, 유전자 조각 길이와 상관없이 적은 연산량으로도 유전자 조각의 위치를 찾을 수 있다. 연구팀이 제안한 인덱싱 기법은 기존 인덱싱 기법과 비교해 3.4배 정도 가속화됐고, 이로 인해 유전체 정렬 소프트웨어는 1.4 배 가속화됐다. 연구팀이 이번 연구에서 개발한 유전체 정렬 소프트웨어는 오픈소스 (https://github.com/kaist-ina/BWA-MEME)로 공개돼 많은 분야에 사용될 것으로 기대되며, 유전체 분석에서 사용되는 다양한 소프트웨어를 머신러닝 기술로 가속화하는 연구들의 초석이 될 것으로 기대된다. 한동수 교수는 "이번 연구를 통해 기계학습 기술을 접목해 전장 유전체 빅데이터 분석을 기존 방식보다 빠르고 적은 비용으로 할 수 있다는 것을 보여줬으며, 앞으로 인공지능 기술을 활용해 전장 유전체 빅데이터 분석을 효율화, 고도화할 수 있을 것이라 기대된다ˮ고 말했다. 한편 이번 연구는 과학기술정보통신부의 재원으로 한국연구재단의 지원을 받아 데이터 스테이션 구축·운영 사업으로서 수행됐다.
2022.04.17
조회수 8101
그래핀 기반 2차원 반도체 소자 시뮬레이션의 양자 도약 달성
반도체 연구 개발에서 소자의 미세화에 따라 원자 수준에서 전류의 흐름을 이해하고 제어하는 것이 핵심적 요소가 되고 있는 상황에서, 우리 연구진이 기존에는 불가능했던 원자만큼 얇은 2차원 반도체 소자의 엄밀한 양자 역학적 컴퓨터 시뮬레이션을 성공적으로 구현하고 이를 기반으로 원자 결함에 의해 발생하는 특이한 소자 특성을 세계 최초로 보고했다. 우리 대학 전기및전자공학부 김용훈 교수 연구팀이 자체적으로 개발한 양자 수송 이론을 통해 세계 최초로 그래핀 전극 간 전자의 터널링 현상(전자가 포텐셜 장벽을 투과하는 현상)으로 작동하는 *2차원 터널링 트랜지스터의 **제1 원리 시뮬레이션을 수행하는 데 성공했다고 4일 밝혔다. * 2차원 터널링 트랜지스터: 그래핀을 전극으로 하여 전극 간 전자의 터널링(tunneling) 현상을 통해 소자가 작동하는 반도체 소자이다. 소자의 동작 특성을 결정하는 그래핀 전극간 전자의 터널링 현상은 소스-드레인(source-drain) 전극 및 게이트(gate) 전압에 의해 결정된다. **제1 원리 시뮬레이션: 제1원리 계산은 물질 내 전자들의 거동을 해석할 때 실험적 데이터나 경험적 모델을 도입하지 않고 지배방정식인 슈뢰딩거 방정식을 원자 정보를 포함시켜 직접 푸는 양자역학적 물질 시뮬레이션 방법으로 대표적인 방법론은 밀도 범함수론(density functional theory, DFT)이 있음 전기및전자공학부 김태형 박사과정과 이주호 박사가 공동 제1 저자로 참여한 이번 연구는 소재 계산 분야의 권위 있는 학술지 `네이쳐 파트너 저널 컴퓨테이셔널 머터리얼즈(Npj Computational Materials)' (IF 13.20) 3월 25일 字 온라인판에 게재됐다. (논문명: Gate-versus defect-induced voltage drop and negative differential resistance in vertical graphene heterostructures) 제1 원리 시뮬레이션이란 슈퍼컴퓨터에서 원자 수준의 양자역학 계산을 수행해 실험적 데이터나 경험적 모델의 도움 없이 물질의 특성을 도출하는 방법으로 제1 원리 계산을 통한 평형 상태의 소재 연구는 1998년 월터 콘(Walter Khon) 교수가 노벨상을 받은 `밀도 범함수론(density functional theory: DFT)'을 기반으로 다방면으로 수행돼왔다. 반면 전압 인가에 따른 비평형 상태에서 작동하는 나노 소자의 제1 원리 계산은 DFT 이론을 적용하기 어렵고 그 대안으로 제시된 이론들에도 한계가 있어 현재 그래핀 기반 2차원 반도체 소자의 엄밀한 양자역학적 시뮬레이션은 불가능한 상황이었다. 연구팀은 먼저 이러한 어려움을 극복하기 위해 자체적으로 수립한 새로운 양자 수송 계산 체계인 다공간 DFT 이론을 발전시켜 그래핀 기반 2차원 터널링 트랜지스터의 제1 원리 시뮬레이션을 가능하게 했다. 다음으로 이를 그래핀 전극-육각형 질화붕소 채널-그래핀 전극 소자 구조에 적용해 질화붕소 층에 존재하는 원자 결함이 다양한 비선형 소자 특성들을 도출시킬 수 있음을 보여 원자 결함의 종류와 위치에 대한 정보가 신뢰성 있는 2차원 소자의 구현에 매우 중요함 요소을 입증했다. 한편 이러한 비선형 소자 특성은 연구진이 기존에 세계 최초로 제안했던 양자 혼성화(quantum hybridization) 소자 원리(device principle)에 따라 발현됨을 보여 2차원 소자의 양자적 특성을 활용하는 한 방향을 제시했다. 김 교수는 "나날이 치열해지는 반도체 연구/개발 분야에서 세계적으로 경쟁력 있는 나노 소자 전산 설계 원천기술을 확보했다ˮ고 연구의 의미를 소개하며 "양자 효과가 극대화될 수밖에 없는 차세대 반도체 연구/개발에서 양자역학적 제1 원리 컴퓨터 시뮬레이션의 역할이 더욱 중요해질 것”이라고 강조했다. 한편 이번 연구는 삼성전자 미래기술 육성센터의 지원을 받아 수행됐다.
2022.04.04
조회수 9801
페로브스카이트 퀀텀닷 발광 다이오드의 올인원 공정 개발
우리 대학 전기및전자공학부 이정용 교수 연구팀이 페로브스카이트 퀀텀닷(양자점) 층에 직접적인 자외선, 전자빔 처리나 용액 가둠막 없이 고효율 RGB 패턴 발광 다이오드 제작 기술을 개발했다고 16일 밝혔다. 전기및전자공학부 김준호 박사과정과 서기원 박사가 공동 제1 저자로 참여한 이번 연구는 국제 학술지 `어드밴스드 사이언스(Advanced Science)' 2022년 3월 2일 자 온라인판에 게재됐다. (논문명: All-in-one Process for Color Tuning and Patterning of Perovskite Quantum dot Light-Emitting Diodes). 페로브스카이트 퀀텀닷은 높은 외부 양자 효율과 색 순도를 가지고, 퀀텀닷 내부의 할라이드 음이온의 종류와 그 비율에 따라 밴드갭을 조절할 수 있다는 장점을 가져 차세대 디스플레이 발광 물질로 주목받고 있는 물질이다. 하지만, 페로브스카이트 퀀텀닷은 용매 분산을 위하여 긴 탄소 사슬을 갖는 절연 유기 분자가 퀀텀닷 주변을 둘러싸고 있어 전자 소자로 적용 시 낮은 성능을 갖게 하고, 패터닝 공정에 사용되는 자외선 및 전자빔 처리에 취약해 디스플레이를 만들기 위한 픽셀 패터닝 공정이 매우 어렵다는 문제점을 가지고 있다. 연구팀이 개발한 공정은 페로브스카이트 퀀텀닷 주변의 절연성 유기 리간드(결합 분자)를 전하 수송이 유리한 유기 리간드(결합 분자)로 교환해 발광 다이오드 성능을 향상할 뿐만 아니라 동시에 퀀텀닷 내부 할라이드 조성 비율을 조절하는 할라이드 음이온 교환을 통해 퀀텀닷 박막의 발광 색상을 자유롭게 바꿀 수 있다. 연구팀은 더 나아가 페로브스카이트 퀀텀닷 박막의 국부적 부분만 색을 변환시키는 패터닝 공정을 제안해, 페로브스카이트 퀀텀닷 박막에 직접적인 자외선 및 전자빔 처리 없이 RGB 색상이 패터닝된 발광 다이오드를 고속으로 제작하는 데 성공했다. 이정용 교수는 "이번에 개발한 페로브스카이트 퀀텀닷 박막 패터닝 공정은 용액공정 기반 페로브스카이트 퀀텀닷 패터닝 공정이 당면하고 있는 여러 문제점을 해소했고, 차세대 페로브스카이트 퀀텀닷 디스플레이 구현에 적용 가능할 것ˮ이라고 말했다. 또한, 이번 박막 패터닝 공정을 이용해 서로 다른 밴드갭을 가지는 페로브스카이트 퀀텀닷이 가림막(뱅크 구조물) 없이 평행하게 패터닝된 단일 박막 제작이 가능하다는 점에서 "발광 다이오드뿐만 아니라 광검출기, 태양전지, 광 컴퓨팅 소자 등 다양한 광전소자에도 널리 활용될 수 있을 것으로 기대된다ˮ며 연구의 의의를 설명했다. 한편 이번 연구는 한국연구재단의 중견연구사업, 나노 및 소재 기술개발사업의 지원을 받아 수행됐다.
2022.03.16
조회수 7572
강화학습을 활용한 인공지능으로 자유구조 메타표면 최적화 성공
우리 대학 전기및전자공학부 장민석 교수 연구팀이 KC ML2(반도체 제조 솔루션 기업 KC에서 설립한 연구조직) 박찬연 박사와 공동연구를 통해 강화학습에 기반한 자유 구조의 메타 표면 구조 설계 방법을 제안했다고 25일 밝혔다. 메타 표면은 빛의 파장보다 훨씬 작은 크기의 구조를 이용해 이전에 없던 빛의 성질을 달성하는 나노광학 소자를 뜻한다. 나노광학 소자는 빛의 특성을 미시 단위에서 제어하여, 자율주행에 쓰이는 라이다(LiDAR) 빔조향 장치, 초고해상도 이미징 기술, 디스플레이에 활용되는 발광소자의 광특성 제어, 홀로그램 생성 등에 활용될 수 있다. 최근 나노광학 소자에 대한 기대 성능이 높아지면서, 이전에 있던 소자구조를 훨씬 뛰어넘는 성능을 달성하기 위해 자유 구조를 가지는 소자의 최적화에 관한 관심이 증가하고 있다. 자유 구조와 같이 넓은 설계공간을 가진 문제에 대해 강화학습을 적용해 해결한 사례는 이번이 최초다. 우리 대학 서동진 연구원 및 ML2 남원태 연구원이 공동 제1 저자로 참여한 이번 연구는 국제 학술지 `ACS 포토닉스(ACS Photonics)' 2022년 2월호 전면 표지논문으로 게재됐다. (논문명 : Structural Optimization of a One-Dimensional Freeform Metagrating Deflector via Deep Reinforcement Learning) 강화학습은 동물이 학습하는 방법을 모방한 인공지능 방법론이다. 동물 행동 심리학에서 `스키너의 상자'라고 알려진 실험이 그 모티브가 되었는데, 해당 실험은 상자 내부에 쥐를 넣고 누르면 먹이가 나오는 지렛대를 함께 두는 방식으로 진행된다. 처음에 무작위 행동을 하던 쥐는 지렛대를 누르면 먹이가 나오는 것을 확인한다. 시간이 지날수록 더 높은 빈도수로 지렛대를 누르게 되는데, 이렇게 어떠한 보상(먹이)이 행동(지렛대를 누르는 행위)을 `강화'하는 것을 관찰할 수 있다. 해당 실험과 매우 유사한 구조를 갖는 강화학습은 행동 주체가 자기를 둘러싼 `환경'으로부터 `보상'을 받으면서 환경에 대해 배워나가는 인공지능 방법론이다. 2016년 이세돌 9단과의 대국에서 승리한 구글 딥마인드의 `알파고(AlphaGo)'가 그 대표적 사례다. 알파고는 바둑판으로 표현되는 환경과의 상호작용을 통해 바둑의 복잡한 규칙을 학습했고, 우주에 있는 원자보다 많다고 알려진 경우의 수 중 최적에 가까운 선택을 할 수 있었다. 최근 인공지능 학계에서 강화학습은 인간의 지능과 가장 유사한 형태의 인공지능 방법론으로 크게 주목받고 있다. 연구팀은 복잡한 환경을 쉽게 학습할 수 있는 강화학습의 특징을 메타 표면 자유 구조의 최적화에 활용하는 아이디어를 제안했다. 이전에 메타 표면 자유 구조 최적화 기술은 너무 많은 경우의 수로 인해 해결하기 어려운 것으로 여겨졌다. 따라서 기존 연구 방향은 주로 간단한 기본도형 등으로 구조를 단순화한 방식을 활용했다. 하지만 해당 방식은 기하학적 구조가 제한된다는 한계가 있었고, 더욱 복잡한 구조에 대한 최적화 기술은 달성하기 어려운 것으로 여겨졌다. 연구팀이 제안한 알고리즘은 아주 간단한 아이디어에서 출발한다. 강화학습의 `행동'을 구조의 구성요소를 하나씩 `뒤집는' 것으로 정의하는 것이다. 이것은 기존에 구조를 전체적으로 생성하는 방식으로만 생각되었던 자유 구조의 최적화에 대한 발상을 뒤집는 것이었다. 연구팀은 해당 방법을 이용해 메타 표면에 대한 특별한 사전지식 없이도 가능한 구조를 넓게 탐색하고 최적 구조를 발견할 수 있음을 보였다. 또한, 많은 입사 조건에서 최신 성능과 비슷하거나 앞서며 특정 조건에서는 100%에 가까운 효율을 달성했다. 이번 연구를 통해 자유 구조 최적화 분야의 새로운 돌파구를 찾을 것으로 기대되며, 광소자뿐 아니라 많은 분야의 소자 구조 최적화에도 활용될 수 있을 것으로 기대된다. 제1 저자인 서동진 연구원은 "강화학습은 복잡한 환경에서 최적의 경우를 찾는 데에 효과적인 알고리즘이다. 이번 연구에서 해당 방법으로 자유 구조의 최적화를 수행하는 것에 성공하는 사례를 남겨 기쁘다ˮ고 말했다. 장민석 교수는 "광공학에 인공지능 기술을 적용하는 분야에서 좋은 결과가 나와 과학의 위상을 높이는 데 기여하기를 희망한다ˮ고 말했다. 한편 이번 연구는 한국연구재단의 중견연구자지원사업(전략연구), 한-스위스 이노베이션프로그램, 그리고 미래소재디스커버리 사업의 지원을 받아 수행됐다.
2022.02.25
조회수 9479
인간의 촉각 뉴런을 모방한 뉴로모픽 모듈 개발
우리 대학 전기및전자공학부 최양규 교수 연구팀이 지난 2021년 8월에 뉴런과 시냅스를 동일 평면 위에서 동시 집적으로 ‘인간의 뇌를 모방한 뉴로모픽 반도체 모듈’을 개발하고, 연이어서 이번에는 ‘인간의 촉각 뉴런을 모방한 뉴로모픽 모듈’을 개발하는 데에 성공했다고 24일 밝혔다. 개발된 모듈은 인간의 촉각 뉴런과 같이 압력을 인식해 스파이크 신호를 출력할 수 있어, 뉴로모픽 촉각 인식 시스템을 구현할 수 있다. 우리 대학 전기및전자공학부 한준규 박사과정과 초일웅 박사과정이 공동 제1 저자로 참여한 이번 연구는 저명한 국제 학술지 ‘어드밴스드 사이언스(Advanced Science)’ 2022년 1월 온라인판에 출판됐으며, 후면 표지 논문(Back Cover)으로 선정됐다. (논문명 : Self-powered Artificial Mechanoreceptor based on Triboelectrification for a Neuromorphic Tactile System). 인공지능을 이용한 촉각 인식 시스템은 센서 어레이에서 수신된 신호를 인공 신경망을 이용해 높은 정확도로 물체, 패턴, 또는 질감을 인식할 수 있어, 다양한 분야에 걸쳐 유용하게 사용되고 있다. 하지만 이러한 시스템의 대부분은 폰 노이만 컴퓨터가 필요한 소프트웨어를 기반으로 하므로, 높은 전력을 소모할 수밖에 없어 모바일 또는 사물인터넷(IoT) 장치에 적용되기는 어렵다. 한편, 생물학적 촉각 인식 시스템은, 스파이크 형태로 감각 정보를 전달함으로써 낮은 전력 소비만으로 물체, 패턴, 또는 질감을 판별할 수 있다. 따라서 저전력 촉각 인식 시스템을 구축하기 위해, 생물학적 촉각 인식 시스템을 모방한 뉴로모픽 촉각 인식 시스템이 주목을 받고 있다. 뉴로모픽 촉각 인식 시스템을 구현하기 위해서는 인간의 촉각 뉴런처럼 외부 압력 신호를 스파이크 형태의 전기 신호로 변환해주는 구성 요소가 필요하다. 하지만, 일반적인 압력 센서는 이러한 기능을 수행할 수 없다. 연구팀은 마찰대전 발전기(triboelectric nanogenrator, TENG)와 바이리스터(biristor) 소자를 이용해, 압력을 인식해 스파이크 신호를 출력할 수 있는 뉴로모픽 모듈을 개발했다. 제작된 뉴로모픽 모듈은 마찰대전을 이용하기 때문에, 자가 발전이 가능하고 3 킬로파스칼(kPa) 수준의 낮은 압력을 감지할 수 있다. 이는 손가락으로 사물을 만질 때, 피부가 느끼는 압력 정도의 크기다. 연구팀은 제작된 뉴로모픽 모듈을 바탕으로 저전력 호흡 모니터링 시스템을 구축했다. 호흡 모니터링 센서가 코 주위에 설치되면 들숨 및 날숨을 감지하고 복부 주변에 설치되면 복식호흡을 별도로 감지할 수 있다. 따라서 수면 중 무호흡이 일어날 경우, 이를 감지해 경보를 보냄으로써 심각한 상황으로의 진행을 미연에 방지할 수 있다. 연구를 주도한 한준규 박사과정은 "이번에 개발한 뉴로모픽 센서 모듈은 센서 구동에 필요한 에너지를 스스로 생산하는 반영구적 자가 발전형으로 사물인터넷(IoT) 분야, 로봇, 보철, 인공촉수, 의료기기 등에 유용하게 사용될 수 있을 것으로 기대된다ˮ며, "이는 `인-센서 컴퓨팅(In-Sensor Computing)' 시대를 앞당기는 발판이 될 것이다ˮ고 연구의 의의를 설명했다. 한편 이번 연구는 한국연구재단 차세대지능형반도체기술개발사업, 중견연구사업, 미래반도체사업, BK21 사업 및 반도체설계교육센터의 지원을 받아 수행됐다.
2022.02.25
조회수 10421
다공성 나노소재를 활용한 고신뢰성 시냅스 소자 개발
우리 대학 전기및전자공학부 최신현 교수 연구팀이 다공성 구조를 갖는 *차세대 저항 변화 소자(멤리스터)를 활용해 우리 뇌의 신경전달물질 시냅스를 모방한 고신뢰성 소자(시냅스 소자)를 개발했다고 25일 밝혔다. ☞ 멤리스터(Memristor): 메모리와 레지스터의 합성으로 이전의 상태를 모두 기억하는 메모리 소자. 전원공급이 끊어졌을 때도 직전에 통과한 전류의 방향과 양을 기억한다. 최 교수 연구팀은 기존 양이온 저항 변화 방식과 음이온 저항 변화 방식을 혼합한 하이브리드 형태로 매개체를 구성해, 비정질로 이루어진 다공성 구조 및 버퍼 층을 이용해 고신뢰성 시냅스 소자를 설계했다. 해당 구조는 저온 공정을 통해 형성함으로써 기존 실리콘 상보형 산화금속 반도체(CMOS)에 집적 및 적층 가능해 집적도 높은 대용량 로직/인공신경망 컴퓨팅 시스템 제작에 활발히 응용될 수 있을 것으로 기대된다. 우리 대학 최상현 연구원과 박시온 연구원이 공동 제1 저자로 참여한 이번 연구는 국제 학술지 `사이언스 어드밴시스(Science Advances)' 1월호에 출판됐다. (논문명 : Reliable multilevel memristive neuromorphic devices based on amorphous matrix via quasi-1D filament confinement and buffer layer) 멤리스터는 저전력으로 인메모리(In-memory) 컴퓨팅, 가중치 저장, 행렬 계산 능력(vector-matrix multiplication) 등으로 차세대 논 폰노이만 구조에 쓰일 수 있는 차세대 소자로 주목받고 있다. 그러나 현존하는 멤리스터로 실용적인 대용량 인공신경망 컴퓨팅 (Large-scale neural computing) 시스템을 만들기 위해서는 멤리스터 단위 소자의 신뢰성을 확보할 수 있는 연구가 필요하다. 소자의 신뢰성 저하는 전통적으로 비정질 물질 내에 무작위적으로 움직이는 결함 및 이온의 배치에서 기인한다. 최신현 교수는 이러한 문제를 단결정 물질을 사용해 결함 및 이온의 무작위적인 움직임을 제어함으로써 소자 신뢰성 확보에 성공한 바 있다. 하지만 단결정을 이용하는 문제 및 제작에 고온 공정이 필요하므로 기존 실리콘 CMOS에 집적 및 적층이 어려워 집적도를 높이는 데 한계가 있었다. 연구팀은 이번 연구를 통해 기존의 비정질 물질을 사용해 신뢰성을 확보할 수 있는 다공성 구조의 양이온 제어층 및 버퍼층으로 이용되는 음이온 제어층을 설계했고, 이를 통해 적층 및 집적 가능한 소자를 제작했다. 연구팀은 기존 소자 대비 6배 이상 신뢰성을 개선할 수 있었으며, 이와 동시에 인공 시냅스 소자로서 필요한 다른 특성들도 확보할 수 있었다. 연구를 주도한 최신현 교수는 "이번에 개발한 고신뢰성 시냅스 소자는 안정적인 대용량 어레이 제작의 방향성을 제시할 수 있을 것으로 기대되며, 차세대 신소자를 기반으로 한 뉴로모픽 컴퓨팅 등 빅데이터 처리가 필요한 응용 분야에 적합한 플랫폼을 구축하는 데에 기여할 수 있기를 바란다. 또한, 미국, 대만 기업에서 활발히 진행 중인 차세대 신소자 기반 기술 개발이 국내에서도 활성화되기를 희망한다ˮ며 "다른 물질계에서도 구조적으로 적용할 수 있는 방법론을 제시함으로써 활발히 연구가 진행될 것으로 생각된다ˮ고 연구의 의의를 설명했다. 한편 이번 연구는 한국연구재단, 나노종합기술원, 삼성미래기술육성재단의 지원을 받아 수행됐다.
2022.01.25
조회수 9573
세계 최초 그래프 기반 인공지능 추론 가능한 SSD 개발
우리 대학 전기및전자공학부 정명수 교수 연구팀(컴퓨터 아키텍처 및 메모리 시스템 연구실)이 세계 최초로 그래프 기계학습 추론의 그래프처리, 그래프 샘플링 그리고 신경망 가속을 스토리지/SSD 장치 근처에서 수행하는 `전체론적 그래프 기반 신경망 기계학습 기술(이하 홀리스틱 GNN)'을 개발하는데 성공했다고 10일 밝혔다. 연구팀은 자체 제작한 프로그래밍 가능 반도체(FPGA)를 동반한 새로운 형태의 계산형 스토리지/SSD 시스템에 기계학습 전용 신경망 가속 하드웨어와 그래프 전용 처리 컨트롤러/소프트웨어를 시제작했다. 이는 이상적 상황에서 최신 고성능 엔비디아 GPU를 이용한 기계학습 가속 컴퓨팅 대비 7배의 속도 향상과 33배의 에너지 절약을 가져올 수 있다고 밝혔다. 그래프 자료구조가 적용된 새로운 기계학습 모델은 기존 신경망 기반 기계학습 기법들과 달리, 데이터 사이의 연관 관계를 표현할 수 있어 페이스북, 구글, 링크드인, 우버 등, 대규모 소셜 네트워크 서비스(SNS)부터, 내비게이션, 신약개발 등 광범위한 분야와 응용에서 사용된다. 예를 들면 그래프 구조로 저장된 사용자 네트워크를 분석하는 경우 일반적인 기계학습으로는 불가능했던 현실적인 상품 및 아이템 추천, 사람이 추론한 것 같은 친구 추천 등이 가능하다. 이러한 신흥 그래프 기반 신경망 기계학습은 그간 GPU와 같은 일반 기계학습의 가속 시스템을 재이용해 연산 되어왔는데, 이는 그래프 데이터를 스토리지로부터 메모리로 적재하고 샘플링하는 등의 데이터 전처리 과정에서 심각한 성능 병목현상과 함께 장치 메모리 부족 현상으로 실제 시스템 적용에 한계를 보여 왔다. 정명수 교수 연구팀이 개발한 홀리스틱 GNN 기술은 그래프 데이터 자체가 저장된 스토리지 근처에서 사용자 요청에 따른 추론의 모든 과정을 직접 가속한다. 구체적으로는 프로그래밍 가능한 반도체를 스토리지 근처에 배치한 새로운 계산형 스토리지(Computational SSD) 구조를 활용해 대규모 그래프 데이터의 이동을 제거하고 데이터 근처(Near Storage)에서 그래프처리 및 그래프 샘플링 등을 가속해 그래프 기계학습 전처리 과정에서의 병목현상을 해결했다. 일반적인 계산형 스토리지는 장치 내 고정된 펌웨어와 하드웨어 구성을 통해서 데이터를 처리해야 했기 때문에 그 사용에 제한이 있었다. 그래프처리 및 그래프샘플링 외에도, 연구팀의 홀리스틱 GNN 기술은 인공지능 추론 가속에 필요한 다양한 하드웨어 구조, 그리고 소프트웨어를 후원할 수 있도록 다수 그래프 기계학습 모델을 프로그래밍할 수 있는 장치수준의 소프트웨어와 사용자가 자유롭게 변경할 수 있는 신경망 가속 하드웨어 프레임워크 구조를 제공한다. 연구팀은 홀리스틱 GNN 기술의 실효성을 검증하기 위해 계산형 스토리지의 프로토타입을 자체 제작한 후, 그 위에 개발된 그래프 기계학습용 하드웨어 *RTL과 소프트웨어 프레임워크를 구현해 탑재했다. 그래프 기계학습 추론 성능을 제작된 계산형 스토리지 가속기 프로토타입과 최신 고성능 엔비디아 GPU 가속 시스템(RTX 3090)에서 평가한 결과, 홀리스틱 GNN 기술이 이상적인 상황에서 기존 엔비디아 GPU를 이용해 그래프 기계학습을 가속하는 시스템의 경우에 비해 평균 7배 빠르고 33배 에너지를 감소시킴을 확인했다. 특히, 그래프 규모가 점차 커질수록 전처리 병목현상 완화 효과가 증가해 기존 GPU 대비 최대 201배 향상된 속도와 453배 에너지를 감소할 수 있었다. ☞ RTL (Registor Transistor Logic): 저항과 트랜지스터로 구성한 컴퓨터에 사용되는 회로 정명수 교수는 "대규모 그래프에 대해 스토리지 근처에서 그래프 기계학습을 고속으로 추론할 뿐만 아니라 에너지 절약에 최적화된 계산형 스토리지 가속 시스템을 확보했다ˮ며 "기존 고성능 가속 시스템을 대체해 초대형 추천시스템, 교통 예측 시스템, 신약 개발 등의 광범위한 실제 응용에 적용될 수 있을 것ˮ이라고 말했다. 한편 이번 연구는 미국 산호세에서 오는 2월에 열릴 스토리지 시스템 분야 최우수 학술대회인 `유즈닉스 패스트(USENIX Conference on File and Storage Technologies, FAST), 2022'에 관련 논문(논문명: Hardware/Software Co-Programmable Framework for Computational SSDs to Accelerate Deep Learning Service on Large-Scale Graphs)으로 발표될 예정이다. 해당 연구는 삼성미래기술육성사업 지원을 받아 진행됐고 자세한 내용은 연구실 웹사이트(http://camelab.org)에서 확인할 수 있다.
2022.01.10
조회수 8980
사물인터넷 기반 다수의 뇌 신경회로 동시 원격제어 시스템 개발
우리 연구진이 인터넷을 이용해 뇌 신경회로를 원격 제어할 수 있는 무선 네트워크 기술을 개발했다. 이 기술을 활용하면 시간과 장소에 구애받지 않고 목표 동물의 뇌 신경회로를 정교하게 제어할 수 있다. 우리 대학 전기및전자공학부 정재웅 교수 연구팀이 미국 워싱턴 대학교(Washington University in St. Louis), 미국 콜로라도 대학교(University of Colorado Boulder) 연구팀과의 공동 연구를 통해 사물인터넷 기반의 뇌 신경회로 원격제어 시스템을 개발했다고 8일 밝혔다. 이번 개발 기술은 많은 시간과 인력이 있어야 하는 뇌 연구 및 다양한 신경과학 연구를 자동화시켜 다양한 퇴행성 뇌 질환과 정신질환의 발병 기전 규명과 치료법 개발의 가속화에 크게 기여할 것으로 기대된다. 또한, 먼 거리에 있는 환자의 질환을 원격으로 치료하는 원격 의료 구현에도 활용될 수 있을 것으로 예상된다. 우리 대학 전기및전자공학부 라자 콰지(Raza Qazi) 연구원과 김충연 박사과정, 그리고 워싱턴대 카일 파커(Kyle E. Parker) 연구원이 공동 제1 저자로 참여한 이번 연구는 국제 학술지 `네이처 바이오메디컬 엔지니어링(Nature Biomedical Engineering)' 11월 25일 字에 게재됐다. (논문명 : Scalable and modular wireless-network infrastructure for large-scale behavioural neuroscience) 전 세계적으로 고령화 시대에 접어드는 현 상황에서 알츠하이머병, 파킨슨병과 같은 뇌 질환들로 고통받는 환자 수가 급증하고 있다. 이에 따라 근본적인 뇌 질환 치료법을 개발하기 위해 뇌 기능 및 뇌 질환 발병기전을 규명하기 위한 뇌 연구가 매우 시급하지만, 뇌 연구의 진행 속도가 뇌 질환 환자의 증가 속도를 따라잡지 못하고 있어서 뇌 연구의 효율성을 극대화하기 위한 새로운 기술 개발이 절실히 요구된다. 기존 뇌 연구에 사용되던 대부분의 신경과학 장치들은 외부 장비와 선으로 연결된 유선 방식으로 구동됐지만, 이러한 방식은 피실험 동물들을 물리적으로 제약할 뿐 아니라 실험 진행자의 직접적인 개입이 불가피해 피실험 동물의 행동에 영향을 주는 `관찰자 효과'를 발생시켜서 정확한 뇌 연구 결과 도출을 어렵게 만든다. 아울러 모든 과정에서 실험자의 직접적인 조작이 요구돼 연구에 많은 시간과 인력, 비용이 발생하게 한다. 연구팀은 사물인터넷(Internet of Things; IoT) 기술을 접목해 다양한 다수의 뇌 이식용 기기들을 인터넷 원격으로 동시 제어하거나 예약된 스케줄에 따라 기기들이 자동으로 구동되도록 하는 무선 네트워크 시스템을 개발했다. 이를 통해 시간과 장소에 상관없이 목표 동물들의 특정 뇌 회로를 원격 제어하는 것을 가능하게 했다. 이 시스템은 사용자가 인터넷 웹사이트 기반의 무선 네트워크 플랫폼을 통해 뇌 이식용 장치의 원격제어, 자동화된 데이터 수집, 뇌 회로 제어 스케줄링 등의 다양한 기능을 손쉽게 구현할 수 있도록 설계됐다. 연구팀은 이 시스템의 뇌 신경회로 자동 원격제어 기능을 사용해 자체 제작한 무선 장치(뉴럴 임플란트)가 이식된 수십 마리의 쥐의 뇌 신경회로를 광유전학적 방법으로 사람의 개입 없이 정교하게 원격 자동 제어함으로써, 완전 자동화된 뇌 연구 실험에 적용 가능함을 입증했다. 이 실험을 통해 쥐의 먹이 섭취량, 활동량, 그리고 다른 쥐들과의 사회적 상호작용 빈도를 성공적으로 조절함으로써, 예약이 설정된 대로 다수 동물의 뇌 신경회로를 동시에 독립적으로 원격 제어할 수 있음을 보였다. 정 교수는 "개발된 원격제어 기술은 동물을 활용한 뇌 연구에 필요한 인간개입을 최소화함으로써 뇌 연구의 효율을 높이고 실험의 불확실성을 크게 줄일 수 있을 것ˮ이라며 "이 기술은 뇌 연구를 넘어, 많은 동물 실험을 필요로 하는 신약 개발, 병원 방문 없이 뇌 질환 및 다양한 질병을 치료하기 위한 원격 의료 구현에도 적용될 수 있을 것이다ˮ라고 말했다. 연구팀은 이 기술이 더욱 광범위하게 뇌 과학 연구 및 치료에 사용될 수 있게 하도록, 인공지능 기반의 실시간 뇌파 원격 모니터링 기술을 개발해 본 시스템과 접목하기 위한 연구를 계획하고 있다. 한편 이번 연구는 KAIST 글로벌 특이점 연구사업, 한국연구재단이 추진하는 중견연구자지원사업 및 바이오의료기술개발사업, 미국 국립보건원의 지원을 받아 수행됐다.
2021.12.08
조회수 9145
인간의 뇌를 모방한 뉴로모픽 반도체 개발
우리 대학 전기및전자공학부 최양규, 최성율 교수 공동연구팀이 인간의 뇌를 모방한 고집적 뉴로모픽 반도체를 개발했다고 5일 밝혔다. 뉴로모픽(neuromorphic) 하드웨어는, 인간의 뇌가 매우 복잡한 기능을 수행하지만 소비하는 에너지는 20와트(W) 밖에 되지 않는다는 것에 착안해, 인간의 뇌를 모방해 인공지능 기능을 하드웨어로 구현하는 방식이다. 뉴로모픽 하드웨어는 기존의 폰 노이만(von Neumann) 방식과 다르게 인공지능 기능을 초저전력으로 수행할 수 있어 많은 주목을 받고 있다. 공동연구팀은 단일 트랜지스터를 이용해 인간의 뇌를 모방한 뉴런과 시냅스로 구성된 뉴로모픽 반도체를 구현했다. 이 반도체는 상용화된 실리콘 표준 공정으로 제작되어, 뉴로모픽 하드웨어 시스템의 상용화 가능성을 획기적으로 높였다. 우리 대학 전기및전자공학부 한준규 박사과정이 제1 저자로, 같은 학부 오정엽 박사과정이 제2 저자로 참여한 이번 연구는 저명 국제 학술지 `사이언스 어드벤시스(Science Advances)' 8월 온라인판에 출판됐다. (논문명 : Co-integration of single transistor neurons and synapses by nanoscale CMOS fabrication for highly scalable neuromorphic hardware). 뉴로모픽 하드웨어를 구현하기 위해서는, 생물학적 뇌와 동일하게 일정 신호가 통합되었을 때 스파이크를 발생하는 뉴런과 두 뉴런 사이의 연결성을 기억하는 시냅스가 필요하다. 하지만, 디지털 또는 아날로그 회로를 기반으로 구성된 뉴런과 시냅스는 큰 면적을 차지하기 때문에 집적도 측면에서 한계가 있다. 인간의 뇌가 약 천억 개(1011)의 뉴런과 백조 개(1014)의 시냅스로 구성된다는 점에서, 실제 모바일 및 사물인터넷(IoT) 장치에 사용되기 위해서는 집적도를 개선할 필요가 있다. 이를 개선하기 위해 다양한 소재 및 구조 기반의 뉴런과 시냅스가 제안되었지만, 대부분 표준 실리콘 미세 공정 기술로 제작될 수 없어 상용화가 어렵고 양산 적용에 문제가 많았다. 연구팀은 문제 해결을 위해 이미 널리 쓰이고 있는 표준 실리콘 미세 공정 기술로 제작될 수 있는 단일 트랜지스터로 생물학적 뉴런과 시냅스의 동작을 모방했으며, 이를 동일 웨이퍼(8 인치) 상에 동시 집적해 뉴로모픽 반도체를 제작했다. 제작된 뉴로모픽 트랜지스터는 현재 양산되고 있는 메모리 및 시스템 반도체용 트랜지스터와 같은 구조로, 트랜지스터가 메모리 기능 및 논리 연산을 수행하는 것은 물론, 새로운 뉴로모픽 동작이 가능함을 실험적으로 보여 준 것에 가장 큰 의미가 있다. 기존 양산 트랜지스터에 새로운 동작원리를 적용해, 구조는 같으나 기능이 전혀 다른 뉴로모픽 트랜지스터를 제작했다. 뉴로모픽 트랜지스터는 마치 동전에 앞면과 뒷면이 동시에 있는 것처럼, 뉴런 기능도 하고 시냅스 기능도 수행하는 야누스(Janus) 구조로 구현 가능함을 세계 최초로 입증했다. 연구팀의 기술은 복잡한 디지털 및 아날로그 회로를 기반으로 구성되던 뉴런을 단일 트랜지스터로 대체 구현해 집적도를 획기적으로 높였고, 더 나아가 같은 구조의 시냅스와 함께 집적해 공정 단순화에 따른 비용 절감을 할 수 있는 신기술이다. 기존 뉴런 회로 구성에 필요한 평면적이 21,000 단위인 반면, 새로 개발된 뉴로모픽 트랜지스터는 6 단위 이하이므로 집적도가 약 3,500 배 이상 높다. 연구팀은 제작된 뉴로모픽 반도체를 바탕으로 증폭 이득 조절, 동시성 판단 등의 뇌의 기능을 일부 모방했고, 글자 이미지 및 얼굴 이미지 인식이 가능함을 보였다. 연구팀이 개발한 뉴로모픽 반도체는 집적도 개선과 비용 절감 등에 이바지하며, 뉴로모픽 하드웨어의 상용화를 앞당길 수 있을 것으로 기대된다. 한준규 박사과정은 "상보성 금속 산화막 반도체(CMOS) 기반 단일 트랜지스터를 이용해 뉴런과 시냅스 동작이 가능함을 보였다ˮ 라며 "상용화된 CMOS 공정을 이용해 뉴런, 시냅스, 그리고 부가적인 신호 처리 회로를 동일 웨이퍼 상에 동시에 집적함으로써, 뉴로모픽 반도체의 집적도를 개선했고, 이는 뉴로모픽 하드웨어의 상용화를 한 단계 앞당길 수 있을 것이다ˮ 라고 말했다. 한편 이번 연구는 한국연구재단 차세대지능형반도체기술개발사업, 중견연구사업, 미래반도체사업 및 반도체설계교육센터의 지원을 받아 수행됐다.
2021.08.06
조회수 10940
광 네트워크 기반 GPU 메모리 시스템 개발
소수의 글로벌 기업 주도하에 개발/생산되던 *GPU(Graphic Processing Unit)의 메모리 시스템을, *이종 메모리와 *광 네트워크를 활용해 용량과 대역폭 모두를 대폭 향상한 기술이 우리 연구진에 의해 개발됐다. ☞ 이종 메모리: 서로 다른 특성을 가진 메모리를 통합한 메모리 ☞ 광 네트워크: 빛으로 변환된 신호를 사용하여 정보를 전달하는 통신 수단. ☞ GPU: 여러 프로세스를 병렬적으로 빠르게 처리할 수 있는 연산 장치. 우리 대학 전기및전자공학부 정명수 교수 연구팀(컴퓨터 아키텍처 및 운영체제 연구실)이 *3D XPoint 메모리(이하 XPoint)와 *DRAM 메모리를 통합한 이종 메모리 시스템에서 광 네트워크로 통신하는 `옴-지피유(Ohm-GPU)' 기술 개발에 성공함으로써 기존 DRAM을 단독으로 사용한 *전기 네트워크 기반의 GPU 메모리 시스템 대비 181% 이상의 성능 향상을 성취했다고 2일 밝혔다. ☞ 3D XPoint 메모리: DRAM에 비해 용량이 크지만 데이터 전송 속도가 느린 메모리. ☞ DRAM 메모리: 3D XPoint에 비해 데이터 전송 속도가 빠르지만 용량이 작은 메모리. ☞ 전기 네트워크: 전기적인 신호를 사용해 정보를 전달하는 통신 수단. 기존 GPU는 다수의 연산 장치로 구성되어 있어 연산 속도가 매우 빠르다는 장점이 있으나, DRAM을 단독으로 사용하는 메모리 시스템의 낮은 메모리 용량과 좁은 데이터 전송 대역폭으로 인해 연산 성능을 충분히 활용하지 못한다는 문제가 있다. 용량을 증가시키는 대안으로 DRAM을 XPoint로 대체하는 방법이 있으나, 이때 8배 큰 메모리 용량을 얻을 수 있는 반면 읽기/쓰기의 성능이 4배, 6배로 낮아진다. 또한, 대역폭을 증가시키는 대안으로 *HBM(High Bandwidth Memory) 기술을 활용할 수 있으나, 단일 면적 내 장착할 수 있는 전기 채널(*구리 선) 개수의 한계로 인해 GPU 메모리 시스템이 요구하는 고대역폭을 만족하기 어렵다. ☞ HBM: 3D로 DRAM을 쌓아 고대역폭을 얻을 수 있는 메모리. ☞ 구리 선(Copper wire): 전기 신호가 전달되는 통로. 정 교수팀이 개발한 Ohm-GPU 기술은 대용량 XPoint와 고성능의 DRAM을 통합한 이종 메모리 시스템을 채택함으로써, 기존 메모리 시스템과 동일한 성능을 가지면서도 메모리의 용량을 증가시켰다. 또한, 단일 광 채널(*광섬유)로 서로 다른 파장의 다중 광신호를 전달할 수 있는 광 네트워크의 장점을 활용해 메모리 대역폭을 대폭 넓힘으로써 기존 GPU 메모리 시스템의 한계점들을 전면 개선했다. ☞ 광섬유(Optic fiber): 광 신호가 전달되는 통로. Ohm-GPU 기술은 GPU 내부에 있는 메모리 컨트롤러 및 인터페이스를 수정해 이종 메모리의 모든 메모리 요청을 광신호로 처리한다. 메모리 요청은 일반적으로 DRAM 캐시 메모리에서 처리되지만, DRAM에 없는 데이터는 XPoint로부터 읽어와야 한다. 이때, 발생하는 이종 메모리 간 데이터 이동의 오버헤드(대기 시간)는 1) 연산을 위한 메모리 접근과 데이터 이동을 위한 메모리 접근의 광 파장을 다르게 설정하고, 2) 메모리 컨트롤러 개입을 최소화하고 XPoint 컨트롤러가 이종 메모리 간 데이터 이동을 수행함으로써 완화했다. 개발된 Ohm-GPU 기술은 기존 DRAM을 단독으로 사용하는 전기 네트워크 기반의 GPU 메모리 시스템 대비 다양한 그래 프처리, 과학응용 실행 등에서 181%의 성능 향상을 달성했다. 이는 인공지능(AI), 빅데이터, 클라우드 컴퓨팅 등 대용량, 고대역폭의 데이터 전송을 요구하는 고성능 가속기의 메모리 시스템을 대체할 수 있을 것으로 기대된다. 정명수 교수는 "GPU 메모리 시스템 기술은 일부 해외 유수 기업이 주도하고 있지만, 이번 연구성과를 기반으로 GPU 및 GPU와 유사한 모든 고성능 가속기 메모리 시스템 관련 시장에서 우위를 선점할 가능성을 열었다는 점에서 의미가 있다ˮ라고 강조했다. 한편 이번 연구는 올해 10월에 열릴 컴퓨터 구조 분야 최우수 학술대회인 `마이크로(International Symposium on Microarchitecture, MICRO), 2021'에 관련 논문(논문명: Ohm-GPU: Integrating New Optical Network and Heterogeneous Memory into GPU Multi-Processors)으로 발표될 예정이며, 이를 통해 정교수 팀은 스토리지 및 메모리 관련 연구로 2021, 당해, 전 세계 컴퓨터 구조에서 가장 잘 알려진 4개의 최우수 학술대회 모두에서 그 결과를 공유한다. 해당 연구에 대한 자세한 내용은 연구실 웹사이트(http://camelab.org)에서 확인할 수 있다.
2021.08.03
조회수 8537
3차원 적층형 화합물 반도체 소자 제작 성공
우리 대학 전기및전자공학부 김상현 교수 연구팀이 *모놀리식 3차원 집적의 장점을 극대화해 기존의 통신 소자의 단점을 극복하는 화합물 반도체 소자 집적 기술을 개발했다고 14일 밝혔다. ☞ 모놀리식 3차원 집적: 하부 소자 공정 후, 상부의 박막층을 형성하고 상부 소자 공정을 순차적으로 진행함으로써 상하부 소자 간의 정렬도를 극대화할 수 있는 기술로 궁극적 3차원 집적 기술로 불린다. 우리 대학 전기및전자공학부 정재용 박사과정이 제1 저자로 주도하고 한국나노기술원 김종민 박사, 광주과학기술원 장재형 교수 연구팀과의 협업으로 진행한 이번 연구는 반도체 올림픽이라 불리는 ‘VLSI 기술 심포지엄(Symposium on VLSI Technology)’에서 발표됐다. (논문명 : High-performance InGaAs-On-Insulator HEMTs on Si CMOS for Substrate Coupling Noise-free Monolithic 3D Mixed-Signal IC). VLSI 기술 심포지엄은 국제전자소자학회(International Electron Device Meetings, IEDM)와 더불어 대학 논문의 채택비율이 25%가 되지 않는 저명한 반도체 소자 분야 최고 권위 학회다. 반도체 소자는 4차 산업 혁명의 특징인 초연결성 구현을 위한 핵심 통신 소재 및 부품으로서 주목받고 있다. 특히 통신 신호, 양자 신호는 아날로그 형태의 신호이고 신호전달 과정에서 신호의 크기가 약해지거나 잡음이 생겨 신호의 왜곡이 생기기도 한다. 따라서 이러한 신호를 주고받을 때 고속으로 신호의 증폭이 필요한데 이러한 증폭 소자에서는 초고속, 고출력, 저전력, 저잡음 등의 특성이 매우 중요하다. 또한 통신 기술이 발전함에 따라 이를 구성하는 시스템은 점점 더 복잡해져 고집적 소자 제작기술이 매우 중요하다. 통신 소자는 통상적으로 두 가지 방식으로 구현된다. 실리콘(Si)을 사용해 집적도 높은 Si CMOS를 이용해 증폭 소자를 구현하는 방법과 *III-V 화합물 반도체를 증폭 소자로 제작하고 기타 소자들을 Si CMOS로 제작해 패키징 하는 방식이 있다. 그러나 각각의 방식은 단점이 존재한다. 기존의 실리콘(Si) 기술은 물성적 한계로 인해 차단주파수 특성 등 통신 소자에 중요한 소자 성능 향상이 어려우며 기판 커플링 잡음 등 복잡한 신호 간섭에 의한 잡음 증가 문제가 존재한다. 반면, III-V 화합물 반도체 기술은 소자 자체의 잡음 특성은 우수하지만 다른 부품과의 집적/패키징 공정이 복잡하고 이러한 패키징 공정으로 인해 신호의 손실이 발생하는 문제가 존재한다. ☞ III-V 화합물 반도체: 주기율표 III족 원소와 V족 원소가 화합물을 이루고 있는 반도체로 전하 수송 특성 및 광 특성이 매우 우수한 소재 연구팀은 이러한 문제 해결을 위해 증폭 소자 이외의 소자 및 디지털 회로에서 좋은 성능을 낼 수 있는 Si CMOS 기판 위에 아날로그 신호 증폭 성능이 매우 우수한 III-V 화합물 반도체 *HEMT를 3차원 집적해 Si CMOS와 III-V HEMT의 장점을 극대화하는 공정 및 소자 구조를 제시했다. 3층으로 소자를 쌓아나감으로써 같은 기판 위에 집적할 수 있는 방식이다. 이와 동시에 기판 신호 간섭에 의한 잡음을 제거할 수 있음을 증명했다. ☞ HEMT: High-Electron Mobility Transistor 연구팀은 하부 Si CMOS의 성능 저하 방지를 위해 300oC 이하에서 상부 III-V 소자를 집적하는 웨이퍼 본딩 등의 초저온 공정을 활용해 상부 소자 집적 후에도 하부 Si CMOS의 성능을 그대로 유지할 수 있었다. 또한 고성능 상부 III-V 소자 제작을 위해서 InGaAs/InAs/InGaAs의 양자우물 구조를 도입해 높은 전자 수송 특성을 실현했으며 100 나노미터(nm) 노드 공정 수준으로도 세계 최고 수준의 차단 주파수 특성을 달성했다. 이는 10 나노미터(nm) 이하 급의 최첨단 공정을 사용하지 않고도 그 이상의 우수한 성능을 낼 수 있는 융합 기술로 향후 기존과 다른 형태의 파운드리 비즈니스 방식의 도입 가능성을 증명했다고 할 수 있다. 더불어 연구진은 이러한 3차원 집적 형태로 소자를 제작함으로써 기존에 SI CMOS에서 존재하는 기판 간섭에 의한 잡음을 해결할 수 있음을 실험을 통해 최초로 증명했다. 김상현 교수는 “디지털 회로 및 다양한 수동소자 제작에 최적화된 Si CMOS 기판 위에 증폭기 등의 능동소자 특성이 현존하는 어떤 물질보다 우수한 III-V 화합물 반도체 소자를 동시 집적할 가능성을 최초로 입증한 연구로, 향후 통신 소자 등에 응용이 가능할 것으로 생각한다”라며 “이번 기술은 향후 양자 큐빗의 해독 회로에도 응용할 수 있어 그 확장성이 매우 큰 기술이다. 다양한 분야에서 활용할 수 있도록 후속 연구에 힘쓰겠다”라고 말했다. 한편 이번 연구는 한국연구재단 지능형반도체기술개발사업, 경기도 시스템반도체 국산화 연구지원 사업 등의 지원을 받아 수행됐다.
2021.06.14
조회수 52105
디스플레이 구동 가능한 OLED 전자 섬유 개발
우리 대학 전기및전자공학부 최경철 교수 연구팀이 정보 출력이 가능한 유기발광다이오드(OLED) 전자 섬유를 개발했다고 12일 밝혔다. 전자 섬유는 실제 입을 수 있는 형태의 소자로서 기존 2차원 평면 소자와는 다르게 인체의 다양한 움직임에 순응하고 뛰어난 착용성과 휴대성을 제공할 수 있는 섬유의 1차원 구조 덕분에 차세대 폼 팩터(form-factor)로 주목받고 있다. 특히나 빛을 방출하는 전자 섬유는 패션, 기능성 의류, 의료, 안전, 차량 디자인 등 다양한 응용 잠재력에 많은 주목을 받고 있다. 하지만 지금까지의 발광 전자 섬유 연구는 디스플레이로 활용되기엔 부족한 전기광학적 성능을 보여 왔거나 단순히 소자 단위로만 연구가 진행 또는 종횡비가 긴 2차원 평면 단위에서 연구가 이루어져 응용 기술 개발에 어려움이 있었다. 최경철 교수 연구팀은 OLED 전자 섬유 디스플레이 구현을 위해 높은 전기광학적 성능 구현과 함께 주소 지정 체계 구축에 주목했다. 연구팀은 먼저 300 마이크로미터(µm) 직경의 원통형 섬유 구조에 적합한 RGB 인광 OLED 소자 구조를 설계했고 연구팀이 보유한 원천기술인 딥 코팅 공정을 활용해 평면 OLED 소자에 버금가는 수준의 OLED 전자 섬유를 개발했다. 특히 고효율을 얻을 수 있는 인광 OLED를 섬유에 성공적으로 구현해 최고 1만 cd/m2(칸델라/제곱미터) 수준의 휘도, 60 cd/A(칸델라/암페어) 수준의 높은 전류 효율을 보였다. (이는 기존 기술 대비 약 5배 이상의 전류 효율에 해당하는 수치다.) 연구팀은 아울러 OLED 전자 섬유를 기반으로 안정적인 디스플레이 구동을 위해, OLED 전자 섬유 위에 접촉 영역을 설계해 직조된 주소 지정 체계를 구축했다. 그리고 문자와 같은 정보를 디스플레이 해 실제 입을 수 있는 기능성을 확인했다. 최 교수 연구팀 관계자는 이 전자 섬유가 디스플레이라는 표시 장치 관점에서 반드시 요구되는 밝은 밝기와 낮은 전력 소모를 위한 높은 전류 효율, 낮은 구동 전압, 그리고 주소 지정성을 갖췄다고 밝혔다. 이번 연구를 주도한 최 교수 연구팀의 황용하 박사과정은 "섬유 기반 디스플레이 구현을 위해 필수적으로 요구되는 요소 기술들을 구현하는 데 집중했다ˮ며 "전자 섬유가 가진 뛰어난 착용성과 휴대성을 제공함과 동시에 디스플레이 기능성을 구현해 패션, 기능성 의류 등 다양한 응용 분야에 적할 수 있을 것이라 기대된다ˮ고 말했다. 최경철 교수 연구팀의 황용하 박사과정이 제1 저자로 주도한 이번 연구 결과는 나노 분야의 권위 있는 국제 학술지 `어드밴스드 펑셔널 머터리얼즈(Advanced Functional Materials)' (피인용지수(IF) 16.836) 2월 4일 字로 온라인 게재됐으며, 5월 3일 字로 전면 표지 논문(Front Cover)으로 게재됐다. (논문명: Bright-Multicolor, Highly Efficient, and Addressable Phosphorescent Organic Light-Emitting Fibers: Toward Wearable Textile Information Displays) 한편, 이번 연구는 산업통상자원부 전자부품산업핵심기술개발사업과 LG디스플레이의 지원을 받아 수행됐다.
2021.05.12
조회수 48546
<<
첫번째페이지
<
이전 페이지
1
2
3
4
5
6
7
8
9
10
>
다음 페이지
>>
마지막 페이지 14