본문 바로가기
대메뉴 바로가기
KAIST
연구뉴스
유틸열기
홈페이지 통합검색
-
검색
메뉴 열기
%EC%95%8C%EA%B3%A0%EB%A6%AC%EC%A6%98
최신순
조회순
피부형 센서 패치 하나로 사람 움직임을 측정하는 기술 개발
우리 대학 전산학부 조성호 교수 연구팀이 서울대 기계공학과 고승환 교수 연구팀과 협력 연구를 통해 딥러닝 기술을 센서와 결합, 최소한의 데이터로 인체 움직임을 정확하게 측정 가능한 유연한 `피부 형 센서'를 개발했다. 공동연구팀이 개발한 피부 형 센서에는 인체의 움직임에 의해 발생하는 복합적 신호를 피부에 부착한 최소한의 센서로 정밀하게 측정하고, 이를 딥러닝 기술로 분리, 분석하는 기술이 적용됐다. 이번 연구에는 김민(우리 대학), 김권규(서울대), 하인호(서울대) 박사과정이 공동 제1 저자로 참여했으며 국제 학술지 `네이처 커뮤니케이션스(Nature Communications)' 5월 1일 字 온라인판에 게재됐다. (논문명 : A deep-learned skin decoding the epicentral human motions). 사람의 움직임 측정 방법 중 가장 널리 쓰이는 방식인 모션 캡처 카메라를 사용하는 방식은 카메라가 설치된 공간에서만 움직임 측정이 가능해 장소적 제약을 받아왔다. 반면 웨어러블 장비를 사용할 경우 장소제약 없이 사용자의 상태 변화를 측정할 수 있어, 다양한 환경에서 사람의 상태를 전달할 수 있다. 다만 기존 웨어러블 기기들은 측정 부위에 직접 센서를 부착해 측정이 이뤄지기 때문에 측정 부위, 즉 관절이 늘어나면 더 많은 센서가 수십 개에서 많게는 수백 개까지 요구된다는 단점이 있다. 공동연구팀이 개발한 피부 형 센서는 `크랙' 에 기반한 고(高) 민감 센서로, 인체의 움직임이 발생하는 근원지에서 먼 위치에 부착해서 간접적으로도 인체의 움직임을 측정할 수 있다. `크랙' 이란 나노 입자에 균열이 생긴다는 뜻인데, 연구팀은 이 균열로 인해 발생하는 센서값을 변화시켜 미세한 손목 움직임 변화까지 측정할 수 있다고 설명했다. 연구팀은 또 딥러닝 모델을 사용, 센서의 시계열 신호를 분석해 손목에 부착된 단 하나의 센서 신호로 여러 가지 손가락 관절 움직임을 측정할 수 있게 했다. 사용자별 신호 차이를 교정하고, 데이터 수집을 최소화하기 위해서는 전이학습(Transfer Learning)을 통해 기존 학습된 지식을 전달했다. 이로써 적은 양의 데이터와 적은 학습 시간으로 모델을 학습하는 시스템을 완성하는 데 성공했다. 우리 대학 전산학부 조성호 교수는 "이번 연구는 딥러닝 기술을 활용해 실제 환경에서 더욱 효과적으로 사람의 실시간 정보를 획득하는 방법을 제시했다는 점에서 의미가 있다ˮ며 "이 측정 방법을 적용하면 웨어러블 증강현실 기술의 보편화 시대는 더욱 빨리 다가올 것ˮ 이라고 예상했다. 한편, 이번 연구는 한국연구재단 기초연구사업(선도 연구센터 지원사업 ERC)과 기초연구사업 (중견연구자)의 지원을 받아 수행됐다. < 피부형 센서 패치로 손가락 움직임 측정 모습 >
2020.05.20
조회수 13090
초저조도/초고조도 환경에서도 모션 블러 없는 고화질 및 고해상도 영상 생성이 가능한 알고리즘 개발
우리 대학 기계공학과 윤국진 교수 연구팀이 영국 임페리얼 칼리지 김태균 교수 연구팀과 GIST 최종현 교수 공동 연구팀과의 2건의 공동 연구를 통해 이벤트 카메라를 활용한 고화질 및 고해상도 영상 생성 알고리즘들을 개발했다. 연구팀은 이번에 개발한 알고리즘들을 통해 기존의 RGB 기반 카메라가 영상을 획득하지 못하는 초저조도/초고조도 환경에서도 이벤트 카메라(Event Camera)를 활용하여 고화질 및 고해상도 영상을 생성할 수 있고, 특히 이벤트 카메라의 장점을 살려 초고속의 움직임에도 모션 블러(motion blur, 빠른 움직임에 의한 영상 열화) 없는 고프레임율의 영상을 생성할 수 있다고 밝혔다. 이벤트 카메라는 카메라 각 화소에 입사하는 빛의 세기의 변화에 반응하여 광역동적범위(High Dynamic Range)에서 매우 짧은 지연 시간을 갖는 비동기적 이벤트 데이터를 영상 정보로 제공하기 때문에, 기존 RGB 카메라가 영상을 획득할 수 없었던 고조도/저조도 환경에서도 영상 데이터 획득이 가능하고 또한 초고속 움직임을 갖는 피사체에 대한 영상 데이터 획득이 가능하다는 장점이 있다. 하지만 기존의 영상과는 다른 형태의 영상 정보를 제공하기 때문에 기존의 영상 이해 기술을 접목시키기 어렵고 또한 센서의 제약으로 인해 영상의 해상도가 낮다는 단점이 있다. 연구팀은 이벤트 카메라의 장점을 유지하면서 이와 같은 문제를 해결하기 위해 이벤트 데이터로부터 고화질의 초고해상도의 영상을 생성해 내기 위한 최적화된 심층 신경망과 학습 알고리즘들을 제안하였다. 제안된 알고리즘들은 이벤트 카메라로부터 획득된 이벤트 데이터를 일정 시간 동안 누적하여 딥러닝 기반의 합성곱 신경망을 통해 영상을 생성하는 방식으로, 두 공동 연구에서 각각 교사 학습/비교사 학습 기반의 알고리즘을 제안하였는데, 제안된 두 알고리즘들 모두 이벤트 카메라의 장점을 유지할 수 있어 초당 최대 100만 프레임의 영상 생성이 가능하여 조명의 변화가 극심한 환경이나 고속 움직임에 대한 분석이 필요한 다양한 분야에 적용 가능할 것으로 기대된다. 윤국진 교수는 “본 기술은 이벤트 카메라를 활용한 영상 기반 상황 인식을 위한 기술로서, 기존 RGB 카메라로는 검출이 어려운 조명 변화가 극심한 상황에서 사용될 수 있고, 초고속 움직임에 대한 분석이 가능하기 때문에 자율주행 자동차, 드론, 로봇 등에 다양하게 활용될 것으로 기대한다.”고 말했다. Mohammad Mostafavi 박사과정(GIST)이 1저자로 참여한 공동 연구와 Wang Lin 박사과정(KAIST)이 1저자로 참여한 공동 연구 논문들은 오는 6월에 개최 예정인 컴퓨터 비전/기계학습 분야의 국제 학술대회인 ‘IEEE Conference on Computer Vision and Pattern Recognition (CVPR)에 각각 구술/포스터 논문으로 발표될 예정이다. (논문명: (1) Learning to Super Resolve Intensity Images from Events, 이벤트를 활용한 초고해상도 이미지 생성 학습법, (2) EventSR: From Asynchronous Events to Image Reconstruction, Restoration, and Super-Resolution via End-to-End Adversarial Learning, 적대적 신경망 학습을 통한 비동기적 이벤트의 이미지로의 재구성, 복원 및 초해상도 연구) 한편, 이번 연구는 한국연구재단 중견연구자지원사업(NRF-2018R1A2B3008640)과 차세대정보・컴퓨팅기술개발사업(NRF-2017M3C4A7069369)의 지원을 받아 수행됐다.
2020.05.12
조회수 11663
빅데이터로 인간의 창의성·혁신성을 계산하다
우리 대학 문화기술대학원의 박주용 교수 연구팀이 네트워크 과학과 빅데이터에 기반해 인간의 문화⋅예술 창작물의 혁신성과 영향력을 계산하는 이론물리학 알고리즘을 개발했다. 연구팀은 이 알고리즘을 통해 클래식 음악가들의 창작물의 창의성, 혁신성을 계산함으로써 음악의 발전에 베토벤이 끼친 영향력을 수치적으로 규명하고, 후기 낭만파 시대의 거장인 세르게이 라흐마니노프가 끊임없이 혁신을 시도한 대표적 예술가임을 밝혀냈다. 연구팀의 알고리즘은 예술 작품의 빅데이터로부터 창의성을 직접 계산함으로써 빠르게 증가하고 있는 창작 콘텐츠의 우수성을 효율적으로 판단할 수 있을 것으로 기대된다. 박도흠 박사과정이 1 저자로 참여한 이번 연구는 스프링어-네이처(Springer Nature) 그룹의 데이터 과학 전문 학술지인 ‘EPJ 데이터 사이언스(EPJ Data Science)’ 1월 30일 자 온라인판에 게제됐다. (논문명: Probabilistic Influence Networks and Quantifying Patterns of Advances in Works) 인간 고유의 영역으로 알려진 문화예술 창작에서도 인공지능 등의 컴퓨터 알고리즘이 널리 활용되며 예술 작품의 창의성을 과학적으로 평가하는 방법의 필요성이 커지고 있다. 그동안 인간 창의성의 산물인 문화예술은 수치적인 평가가 어려워 인공지능을 한 단계 발전시킨 ‘인공창의성’ 연구에 큰 장벽이 되어왔다. 개별 창작품들에 대한 사람들의 심리적 반응을 측정하는 시도는 종종 있었지만, 대규모의 객관적 실험을 수행하기에는 한계가 있다. 위와 같은 문제 해결을 위해 창작품 자체를 빅데이터화 한 뒤 그로부터 창의성을 평가하는 과학적 방법론 개발의 필요성이 커지고 있다. 연구팀은 1700년~1900년 사이에 작곡된 서양 피아노 악보로부터 동시에 연주되는 음정으로 만들어진 ‘코드워드(codeword)’를 추출하고 이론물리학의 한 분야인 네트워크 과학을 적용했다. 그리고 난 뒤 작품들 사이의 유사도를 측정해 작품들이 서로 얼마나 영향을 주고받았는지를 나타내는 네트워크를 만들어 각 작품이 얼마나 혁신적인지, 또한 후대의 작품에 얼마나 큰 영향을 끼쳤는지를 통해 창의성을 평가했다. 연구팀은 현대에도 큰 영향을 끼치고 있는 핵심적 음악 스타일이 확립된 200년에 걸쳐 음악 창작의 패러다임이 어떻게 변화해왔는지 이해했다고 밝혔다. 이 연구에서는 바로크⋅고전기(1710-1800년)의 대표 작곡가인 핸델과 하이든, 모차르트를 거쳐 고전-낭만 전환기(1800-1820년) 이후 베토벤이 최고의 영향력을 가진 작곡자로 떠오르고, 베토벤의 영향을 받아 리스트와 쇼팽 등 낭만기(1820-1910년)의 거장들이 등장하는 과정을 규명하였다. 올해로 탄생 250주년을 맞은 베토벤은 사후에도 100년 가까이 최고의 영향력을 유지한 것으로 밝혀졌다. 또한, 연구팀은 후기 낭만파의 거장인 라흐마니노프가 과거의 관습은 물론 자신의 작품으로부터 차별화를 끊임없이 시도한 최고의 혁신적 작곡가였음을 밝혀냈다. 코드워드에 기반한 네트워크로부터 음악의 창의성을 계산해내는 이 알고리즘은 낱말, 문장, 색상, 무늬 등으로 만들어진 문학 작품이나 그림, 건축, 디자인 등의 시각 예술의 창의성 연구에도 적용할 수 있을 것으로 보인다. 박주용 교수는 “문화예술 창작물의 과학적 연구에 장벽이 되어온 창의성 평가라는 난제를 네트워크 과학과 빅데이터를 활용해 해결할 수 있음을 보였다”라며 “특히 문화예술 창작 영역에서 컴퓨터의 활약이 커지는 상황에서 인간의 단순 계산력만을 따라하는 인공지능의 한계를 극복함으로써, 인간 창의성과 미적 감각의 잠재력을 극대화하는 인공창의성 발전에 큰 도움이 될 것이다”라고 말했다. 이번 연구는 한국연구재단 국제연구네트워크(GRN)와 한국사회과학연구지원(SSK) 사업, BK21 플러스사업의 지원을 통해 수행됐다. □ 그림 설명 그림1.시대별 작곡가들 사이의 영향력을 나타내는 네트워크 그림2. 연도별 대표적 작곡가들의 영향력 변천사
2020.02.04
조회수 12350
이재길 교수 연구팀 연구성과 Microsoft Research 블로그 게재
<이재길 교수, 송환준 박사과정> 우리대학 이재길 교수(산업및시스템공학과 지식서비스공학대학원)와 송환준 박사과정 학생의 최신 빅데이터 연구결과가 최근 Microsoft Research 블로그에 실렸다. Microsoft Research는 매 분기 자사의 지원을 받은 연구과제 중에서 대표적인 성과를 선정해 자사 블로그에 게시하고 있는데 이번에는 이재길 교수 연구팀의 연구결과가 그 중 하나로 선정된 것이다. 이교수 연구팀은 이번 연구를 통해 전통적인 데이터 군집화 알고리즘인 k-메도이드의 분산 병렬처리 알고리즘을 개발했다. 그동안 빅데이터의 처리 속도를 높이기 위해 결과 정확도를 다소 희생하는 것이 일반적인 관례였으나 이 교수팀은 이번 연구를 통해 정확도를 거의 잃지 않고 현존하는 타 알고리즘보다 높은 성능을 달성했다고 밝혔다. 이번 연구결과는 지난 8월 열린 데이터 마이닝 분야 최고 학술대회인 ACM KDD 2017에서 발표된바 있다. 이 교수는 "추가적인 군집화 알고리즘의 연구도 마무리해 아파치 스파크 오픈소스 플랫폼에 연 성과를 탑재시킬 것"이라고 향후 계획을 밝혔다. 블로그 게시물 : https://www.microsoft.com/en-us/research/lab/microsoft-research-asia/articles/using-microsoft-azure-research-tool-scalable-data-mining-2/
2017.10.16
조회수 10819
이동만 교수, 빅데이터로 SNS 분석해 맞춤형 장소 제공 기술 개발
<좌측부터 전산학부 이동만 교수, 신병헌 박사과정 학생, 최인경 박사과정 학생> 전산학부 이동만 교수 연구팀이 소셜 네트워크 서비스(SNS)의 사진과 글을 기반으로 장소의 특성을 분석해 사용자에게 맞춤형 장소를 제공하는 기술을 개발했다. 이 기술은 현재의 위치기반 추천서비스를 인공지능형 개인비서서비스로 도약시키는 원천기술이 될 것으로 기대된다. 이번 연구는 기존 위치기반 장소 검색 및 추천서비스의 검색 수준을 향상시켜 사용자들이 장소를 선택하는 기준을 다양하게 적용시킬 수 있다. 사용자의 트렌드를 반영해 실시간으로 변화된 장소 추천을 할 수 있을 것으로 보인다. 문화기술대학원 이원재, 박주용 교수와 전산학과 차미영 교수가 공동으로 참여한 이번 연구의 API(응용 프로그래밍 인터페이스)는 http://placeness.kaist.ac.kr:8080/ 을 통해 공개됐고 관련 정보는 http://placeness.kaist.ac.kr/wiki/doku.php 에서 열람할 수 있다. 맛집 추천서비스, 소셜 커머스 등 위치를 기반으로 정보 검색 및 추천서비스를 제공하는 업체들은 주로 고객의 후기를 수집하거나 직접 방문을 통해 경험한 내용을 토대로 음식점 혹은 매장을 평가한다. 이는 비교적 정확한 정보를 제공하지만 시간적, 경제적 비용이 많이 소모된다. 또한 사용자 전체의 관심과 선택의 평균에 중점을 두기 때문에 사용자 개인의 특성을 충분히 고려하지 못한다는 한계가 있다. 시간이 지날수록 사용자는 평균 중심의 예상 가능한 선택지를 추천받을 확률이 높아진다. 따라서 같은 장소라도 사용자가 방문하고자 하는 목적이 다르기 때문에(모임, 상견례, 소개팅 등) 방문 목적과 사회적 맥락을 파악할 수 있는 추가적인 기능이 필수적이다. 이를 위해 기본적으로 제공되는 정보 외에도 실제 사람들이 각 장소에서 어떤 세부적 활동을 하며 공간을 소비했는지에 대한 데이터 수집이 필요하다. 연구팀은 문제 개선을 위해 특정 소셜 네트워크 서비스(인스타그램)에 올라온 사진과 텍스트 자료를 바탕으로 이를 분석하는 알고리즘을 개발했다. 기존에 존재하는 딥러닝 방식을 이용해 사진을 분석하는 기술과 연구팀이 새로 개발한 텍스트 분석 기술인 워드백(Wordbag) 기술을 결합했다. 특정 상황이나 분위기에 사용되는 단어들을 분석하고 단어마다 가중치를 둬 분류하는 기술이다. 연구팀은 API에서 주요 연구 이슈에 따라 크게 4개의 세부 분야별 정보를 제공한다. ▲상위 장소의 장소성(장소의 성격 : placeness), ▲상위 장소 내에 있는 세부 장소의 장소성 추론, ▲감성분석 기반의 장소 분위기 추론, ▲사용자와 장소성 간 연관성을 제공한다. 연구팀의 API는 SNS에 존재하는 연구개발 대상으로 지정된 특정 상위장소(코엑스. 아이파크 몰) 및 그 내부의 세부장소에 대해 언급된 데이터를 분석해 행위, 방문자, 시간, 분위기 등 다양한 관점에서 공간의 활용 가능성을 제공한다. 이는 같은 장소라도 사용자가 시간대, 목적에 따라 다르게 활용했던 이력이나 기존 서비스에서 제공이 어려웠던 분위기(ex. 밝은, 전통적인 등)나 방문 목적(ex. 데이트, 공부, 회의)을 데이터로 수집할 수 있기 때문에 사용자의 의도에 따라 장소를 추천할 수 있다. 이 교수는 “이 연구에서 개발된 API를 통해 기존의 위치기반 장소 검색 및 추천 서비스의 검색 수준을 향상시키고 방문자들의 트렌드 변화에 따라 자동으로 변화된 장소를 추천할 수 있다”고 말했다. 또한 “기존 비정형 텍스트 데이터 분석의 한계를 극복하기 위해 사진과 텍스트를 동시에 분석해 공간에 대한 사회적 정보를 추론할 수 있어 현재의 위치기반 추천 서비스가 인공지능형 개인비서서비스로 도약하는 핵심 기술이 될 것이다”고 말했다. 이번 연구는 과학기술정보통신부 디지털콘텐츠 원천기술개발사업의 지원을 받아 수행됐다.
2017.08.29
조회수 17983
이의진 교수, 스마트폰으로 문서 촬영 시 발생하는 회전 오류 문제 해결
〈 이의진 교수(좌)와 오정민 박사과정(우) 〉 우리 대학 산업및시스템공학과 이의진 교수 연구팀이 스마트폰 카메라로 문서를 촬영할 때 자동으로 발생하는 불규칙적인 회전 오류 현상의 원인을 밝히고 해결책을 개발했다. 연구팀은 스마트폰의 방위 추적 알고리즘의 한계가 회전 오류의 원인임을 규명했다. 이번 연구 결과는 인간-컴퓨터 상호작용 학회의 국제 학술지인 ‘인터내셔널 저널 오브 휴먼 컴퓨터 스터디(International Journal of Human-Computer Studies)’ 4월 4일자 온라인 판에 게재됐고 8월호 저널에 게재될 예정이다. 스마트폰을 통해 책자, 문서 등을 촬영해 업무에 활용하는 것은 자연스러운 일상이 됐다. 하지만 촬영한 문서가 자동으로 90도 회전하는 현상으로 인해 불편을 겪는 사람들이 많다. 특히 여러 장의 사진을 찍었을 때 각기 다른 방향으로 회전돼 일일이 스마트폰을 돌리거나 파일을 편집해야 하는 현상이 발생한다. 스마트폰으로 문서를 촬영할 때는 대부분 스마트폰과 책상 위 문서가 평행 상태이다. 이 때 스마트폰을 회전시키면 스마트폰의 방위 추적 알고리즘이 작동하지 않는다. 방위 추적 알고리즘은 기본적으로 사용자가 스마트폰을 세워서 사용한다는 가정 하에 한 방향으로 가해지는 중력가속도를 측정해 현재 방위를 추정하는 방식으로 설계됐기 때문이다. 연구팀은 실험을 통해 오류 발생 수치를 측정했다. 실험 결과 문서를 가로로 촬영 시 방위 추적 오류가 93%의 높은 확률로 발생함을 확인했다. 일반 사용자는 오류의 원인을 파악하기 어렵다. 대부분의 카메라 앱은 셔터 버튼에 있는 카메라 모양의 아이콘 방향을 통해 실시간 방위를 표시하고 있지만 이러한 기능에 대해서도 사용자들은 인지하지 못한 것으로 파악됐다. 연구팀은 스마트폰의 모션센서 데이터를 활용해 문서 촬영 중에 방위를 정확하게 추적해 문제를 해결했다. 모션센서 데이터의 핵심 기술은 두 가지로 구분할 수 있다. 일반적으로 스마트폰으로 문서를 촬영할 때는 스마트폰이 지면과 평행을 이루기 때문에 스마트폰에 장착된 중력 가속도 센서를 관측해 이러한 문서 촬영 의도를 쉽게 알 수 있다. 두 번째로 문서 촬영 중에 발생하는 스마트폰 회전은 회전 각속도를 측정하는 센서를 활용해 추적할 수 있다. 카메라 앱 실행 후에 문서 촬영을 위해 스마트폰을 회전시키기 때문에 이를 측정해 회전각이 일정 임계치를 넘으면 방위를 변경하는 것으로 파악할 수 있고 이를 통해 방향을 알 수 있는 것이다. 또한 연구팀은 문서 촬영 시 촬영자 쪽으로 스마트폰이 미세하게 기울어지는 마이크로 틸트(micro-tilt) 현상을 발견했다. 이 현상으로 인해 스마트폰으로 가해지는 중력가속도가 스마트폰 측면으로 분산된다. 눈에는 잘 보이지 않을 정도로 작은 기울기지만 모션센서 데이터를 활용해 마이크로 틸트 행동 패턴의 기계학습 알고리즘을 훈련시킬 수 있다. 이를 통해 정확한 방위 추적이 가능하다. 연구 팀의 실험 결과에 따르면 모션센서 데이터를 활용한 방위 추적 방식의 정확도는 93%로 매우 높아 안드로이드 및 iOS등 상용 스마트폰에도 적용 가능하다. 이 기술들은 기존 방위 추적 알고리즘의 사각지대였던 수평 촬영 상황에서 작동하기 때문에 기존 방위 추적 알고리즘과 겹치는 부분 없이 상호 보완적으로 작동할 수 있다. 이 교수는 “스마트폰을 활용한 문서 촬영은 필수가 됐지만 회전 오류의 원인 규명과 해결책이 어려워 불편함이 많았다”며 “모션센서 데이터를 통해 촬영의 의도를 파악하고 자동으로 오류를 바로잡는 기술은 사용자의 불편을 해결하고 문서 촬영에 특화된 다양한 응용서비스 개발의 기초가 될 것이다”고 말했다. 미래창조과학부의 지원을 통해 수행된 이번 기술 중 국내 특허 2건이 등록이 완료됐고 미국 특허가 3월 1일에 수락됐다. □ 그림 설명 그림1. 방위 오류 발생으로 인해 생기는 불편함 그림2. 평면촬영시 발생하는 방위 오류 상태 그림3. 자이로스코프를 활용한 스마트폰 회전 추적 모식도 그림4. 마이크로틸트현상
2017.06.27
조회수 12818
유회준 교수, 인공지능 얼굴인식 시스템 K-EYE 개발
우리 대학 전기및전자공학과 유회준 교수 연구팀이 딥러닝 알고리즘을 세계 최소 전력으로 구현하는 인공지능 반도체 칩 CNNP를 개발했다. 그리고 이를 내장한 얼굴인식 시스템 K-Eye 시리즈를 개발했다. 연구팀이 개발한 K-Eye 시리즈는 웨어러블 디바이스와 동글 타입 2가지로 구성된다. 웨어러블 타입인 K-Eye는 블루투스로 스마트폰과 연동 가능하다. 봉경렬 박사과정이 주도하고 ㈜유엑스팩토리(대표 박준영)과 공동으로 개발한 이번 연구는 지난 2월 미국에서 열린 국제고체회로설계학회(ISSCC)에서 세계 최저전력 CNN칩으로 발표돼 주목을 받았다. 최근 글로벌 IT 기업들이 알파고를 비롯한 인공지능 관련 기술들을 경쟁적으로 발표하고 있다. 그러나 대부분은 소프트웨어 기술이라 속도가 느리고 모바일 환경에서는 구현이 어렵다는 한계가 있다. 따라서 이를 고속 및 저전력으로 구동하기 위해 인공지능 반도체 칩 개발이 필수적이다. 연구팀의 K-Eye 시리즈는 1mW 내외의 적은 전력만으로도 항상 얼굴 인식을 수행하는 상태를 유지하면서 사람의 얼굴을 먼저 알아보고 반응할 수 있다는 특징을 갖는다. K-Eye의 핵심 기술인 얼웨이즈 온(Always-On) 이미지 센서와 CNNP라는 얼굴 인식 처리 칩이 있었기 때문에 위와 같은 세계 최저전력 기술이 가능했다. 첫 번째 칩인 얼웨이즈 온(Always-On) 이미지 센서는 얼굴이 있는지 없는지 스스로 판단할 수 있어 얼굴 인식이 될 때에만 작동하게 해 대기 전력을 대폭 낮출 수 있다. 얼굴 검출 이미지 센서는 아날로그 프로세싱으로 디지털 프로세싱을 제어해 센서 자체의 출력 소모를 줄였다. 픽셀과 결합된 아날로그 프로세서는 배경 부분과 얼굴 부분을 구분하는 역할을 하고 디지털 프로세서는 선택된 일부 영역에서만 얼굴 검출을 수행하면 돼 효율적인 작업이 가능하다. 두 번째 칩인 CNNP는 딥러닝을 회로, 구조, 알고리즘 전반에 도입하고 재해석을 진행해 최저 수준의 전력을 구현하는 역할을 했다. 특히 CNNP칩은 3가지의 핵심 기술을 사용했는데 ▲알파고 인공지능 알고리즘에서 사용하는 2차원 계산을 1차원 계산으로 바꿔 고속 저전력화 ▲분산형으로 배치된 칩 내 메모리가 가로방향 뿐 아니라 세로방향도 읽어낼 수 있는 특수 저전력 분산 메모리로의 설계 ▲1024개의 곱셈기와 덧셈기가 동시에 구동돼 막강한 계산력을 가지면서 외부 통신망을 거치지 않고 직접 계산 결과를 주고받을 수 있게 한 점이다. CNNP는 97%의 인식률을 가지면서도 알파고에 사용된 GPU에 비해 5천분의 1정도의 낮은 전력인 0.6mW만을 소모한다. K-Eye를 목에 건 사용자는 앞에서 다가오는 상대방의 얼굴이 화면에 떠오르면 미리 저장된 정보와 실시간으로 찍힌 사진을 비교해 상대방의 이름 등 정보를 자연스럽게 확인할 수 있다. 동글 타입인 K-EyeQ는 스마트폰에 장착해 이용할 수 있는데 사용자를 알아보고 반응하는 기능을 한다. 미리 기억시킨 사용자의 얼굴이 화면을 향하기만 하면 스마트폰 화면이 저절로 켜지면서 그와 관련된 정보를 제공한다. 또한 입력된 얼굴이 사진인지 실제 사람인지도 구분할 수 있어 사용자의 얼굴 대신 사진을 보여주면 스마트폰은 반응하지 않는다. 유 교수는 “인공지능 반도체 프로세서가 4차 산업혁명시대를 주도할 것으로 기대된다”며 “이번 인공지능 칩과 인식기의 개발로 인해 세계시장에서 한국이 인공지능 산업의 주도권을 갖길 기대한다”고 말했다. □ 사진 설명. 사진1. K-EYE 사진 사진2. K-EYEQ 사진 사진3. CNNP 칩 사진
2017.06.14
조회수 15856
복합 처방된 약물의 부작용 예측 기술 개발
〈이 도 헌 교수〉 우리 대학 바이오및뇌공학과 이도헌 교수(유전자동의보감사업단장, 제 1저자 박경현 연구원) 연구팀이 복합 처방된 약물들의 인체 내 간섭현상을 컴퓨터 가상인체로 분석해 부작용을 예측할 수 있는 기술을 개발했다. 이번 연구결과는 미국 공공과학도서관 학술지 플러스 원(PLOS ONE) 10월 15일자에 게재됐다. 의료 현장에서는 여러 약물을 함께 처방받아 복약하는 경우가 많다. 이러한 복합처방은 모든 가능성을 미리 시험할 수 없기 때문에 널리 알려진 대표적 위험사례를 제외하면 완벽한 사전시험이 불가능하다. 기존에는 부작용 사례를 의약품 적정사용평가(DUR)에 등재시켜 의료현장에서 활용하는 사후 추적만이 최선의 방법이었다. 따라서 복합처방으로 인한 의료 사고를 막기 어려웠고 부작용 예측에도 한계가 있었다. 문제 해결을 위해 연구팀은 발생 가능한 상황을 사전에 컴퓨터 가상인체로 예측함으로써 위험을 미리 파악할 수 있는 기술을 개발했다. 연구팀은 컴퓨터 가상인체에서 랜덤워크 알고리즘을 이용해 약물 표적의 생체 내 분자 신호전파를 시뮬레이션 했다. 약물이 투여됨으로써 신체에 영향을 끼치는 정도를 측정한 것인데, 이를 통해 두 개의 약물이 서로 어느 정도의 영향을 주는지 정량화에 성공했다. 따라서 만약 두 약물 간 간섭이 심해 서로 많은 영향을 준다면 부작용이 발생할 가능성이 높기 때문에 신중한 처방을 해야한다는 결론을 얻을 수 있다. 기존 예측 기술들이 단백질 상호작용 네트워크에서 약물 표적사이의 근거리 간섭만을 고려했다면 이 교수 연구팀은 약물 표적의 생체 내 분자 신호전파 시뮬레이션을 통해 원거리 간섭까지 고려해 정확도를 높였다. 연구팀은 이 기술이 다수의 표적을 갖는 복합 천연물의 신호 전파도 분석해 약물과 천연물 사이의 상호작용 예측에도 활용될 것이라고 예상했다. 이 교수는 “이번 기술은 자체 개발한 대규모 컴퓨터 가상인체 시스템을 통해 진행됐다”며 “약물 복합처방의 부작용을 예측할 수 있는 새로운 방법을 제시했다는 의의를 갖는다”고 말했다. □ 그림 설명 그림 1. 연구팀이 개발한 컴퓨터 가상인체 시스템 그림 2 . 처방된 복합 약물 사이의 신호전파 간섭 예시
2015.10.22
조회수 9905
<<
첫번째페이지
<
이전 페이지
1
2
>
다음 페이지
>>
마지막 페이지 2