본문 바로가기
대메뉴 바로가기
KAIST
연구뉴스
유틸열기
홈페이지 통합검색
-
검색
메뉴 열기
%EC%9C%A0%EB%B9%84%EC%BF%BC%ED%84%B0%EC%8A%A4
최신순
조회순
이의진 교수, 차량 대화형서비스 안전성 향상 기술 개발
〈 이의진 교수, 김아욱 박사과정 〉 우리 대학 산업및시스템공학과 이의진 교수 연구팀이 차량용 인공지능이 능동적으로 운전자에게 대화 서비스를 어느 시점에 제공해야 하는지 자동으로 판단할 수 있는 기술을 개발했다. 연구팀은 차량에서 수집되는 다양한 센서 데이터와 주변 환경 정보를 통합 분석해 언제 운전자에게 말을 걸어야 하는지 자동 판단하는 인공지능 기술을 개발했다. 차량 대화형서비스가 가진 문제를 해결하는 데 중점을 둔 이번 연구는 인공지능의 자동판단 기술을 통해 대화형서비스로 인한 운전자 주의분산 문제를 해결함으로써, 부적절한 시점에 운전자에게 대화를 시도하다가 발생할 수 있는 교통사고 등을 방지하는 기반기술이 될 것으로 기대된다. 이번 연구결과는 유비쿼터스 컴퓨팅 분야 국제 최우수학회인 ACM 유비콤(UbiComp)에서 9월 13일 발표됐다. 김아욱 박사과정이 1저자로 참여하고 최우혁 박사과정, 삼성리서치 박정미 연구원, 현대자동차 김계윤 연구원과의 공동 연구로 이뤄졌다. (논문명: Interrupting Drivers for Interactions: Predicting Opportune Moments for In-vehicle Proactive Auditory-verbal Tasks) 차량 대화형서비스는 편의와 안전을 동시에 제공해야 한다. 운전 중에 대화형서비스에만 집중하면 전방 주시에 소홀하거나 주변 상황에 주의를 기울이지 못하는 문제가 발생한다. 이는 운전뿐만 아니라 대화형서비스 사용 전반에도 부정적인 영향을 줄 수도 있다. 연구진은 말 걸기 적절한 시점 판단을 위해 ▲현재 운전상황의 안전도 ▲대화 서비스 수행의 성공률 ▲운전 중 대화 수행 중 운전자가 느끼는 주관적 어려움을 통합적으로 고려한 인지 모델을 제시했다. 연구팀의 인지 모델은 개별 척도를 다양하게 조합해 인공지능 에이전트가 제공하는 대화형서비스의 유형에 따른 개입 시점의 판단 기준을 설정할 수 있다. 일기예보 같은 단순 정보만을 전달하는 경우 현재 운전상황의 안전도만 고려해 개입 시점을 판단할 수 있고, ‘그래’, ‘아니’ 같은 간단한 대답을 해야 하는 질문에는 현재 운전상황의 안전도와 대화 서비스 수행의 성공률을 함께 고려한다. 매우 보수적으로 세 가지 척도를 모두 함께 고려해 판단할 수 있다. 이 방식은 에이전트와 운전자가 여러 차례의 상호작용을 통해 의사결정을 할 때 사용한다. 정확도 높은 자동판단 인공지능 기술 개발을 위해서는 실제 도로 운전 중 에이전트와의 상호작용 데이터가 필요하기 때문에 연구팀은 반복적인 시제품 제작 및 테스트를 수행해 실제 차량 주행환경에서 사용 가능한 내비게이션 앱 기반 모의 대화형서비스를 개발했다. 자동판단을 위해 대화형서비스 시스템과 차량을 연동해 운전대 조작, 브레이크 페달 조작 상태 등 차량 내 센서 데이터와 차간거리, 차량흐름 등 주변 환경 정보를 통합 수집했다. 연구팀은 모의 대화형서비스를 사용해 29명의 운전자가 실제 운전 중에 음성 에이전트와 수행한 1천 3백 88회의 상호작용 및 센서 데이터를 구축했고, 이를 활용해 기계학습 훈련 및 테스트를 수행한 결과 적절 시점 검출 정확도가 최대 87%에 달하는 것을 확인했다. 연구팀의 이번 기술 개발로 대화형서비스로 인한 운전자 주의분산 문제를 해결할 수 있을 것으로 전망된다. 이 기술은 대화형서비스를 제공하는 차량 인포테인먼트 시스템에 바로 적용할 수 있다. 운전 부주의 실시간 진단 및 중재에도 적용될 수 있을 것으로 기대된다. 이의진 교수는 “앞으로의 차량 서비스는 더욱더 능동적으로 서비스를 제공하는 형태로 거듭나게 될 것이다”라며 “자동차에서 생성되는 기본 센서 데이터만을 활용해 최적 개입 시점을 정확히 찾을 수가 있어 앞으로는 안전한 대화 서비스 제공이 가능할 것이다”라고 밝혔다. 이번 연구는 한국연구재단 차세대정보컴퓨팅기술개발사업과 현대NGV의 지원을 통해 수행됐다. □ 그림 설명 그림1. 실차 데이터 수집장비 및 실제 실험 모습 그림2. 모의 대화형서비스 개념도 그림3. 차량 대화형서비스의 안전성 증진 기술 개념도
2019.11.12
조회수 16169
이성주 교수, 스마트폰으로 사물 두드려 인식하는 노커(Knocker) 기술 개발
〈 왼쪽부터 공태식 박사과정, 조현성 석사과정, 이성주 교수 〉 우리 대학 전산학부 이성주 교수 연구팀이 스마트폰을 사물에 두드리는 것만으로 사물을 인식할 수 있는 ‘노커(Knocker)’ 기술을 개발했다. 이번 연구 결과는 기존 방식과 달리 카메라나 외부 장치를 사용하지 않아 어두운 곳에서도 식별에 전혀 지장이 없고, 추가 장비 없이 스마트폰만으로 사물 인식을 할 수 있어 기존 사물 인식 기술의 문제를 해결할 수 있을 것으로 기대된다. 공태식 박사과정, 조현성 석사과정, 인하대학교 이보원 교수가 참여한 이번 연구 결과는 9월 13일 유비쿼터스 컴퓨팅 분야 국제 최우수학회 ‘ACM 유비콤(ACM UbiComp)’에서 발표됐다. (논문명 : Knocker: Vibroacoustic-based Object Recognition with Smartphones) 기존의 사물 인식 기법은 일반적으로 두 종류로 나뉜다. 첫째는 촬영된 사진을 이용하는 방법으로 카메라를 이용해 사진을 찍어야 한다는 번거로움과 어두운 환경에서는 사용하지 못한다는 단점이 있다. 둘째는 RFID 등의 전자 태그를 부착해 전자신호로 구분하는 방법으로 태그의 가격 부담과 인식하고자 하는 모든 사물에 태그를 부착해야 한다는 비현실성 때문에 상용화에 어려움을 겪었다. 연구팀이 개발한 노커 기술은 카메라와 별도의 기기를 쓰지 않아도 사물을 인식할 수 있다. 노커 기술은 물체에 ‘노크’를 해서 생긴 반응을 스마트폰의 마이크, 가속도계, 자이로스코프로 감지하고, 이 데이터를 기계학습 기술을 통해 분석해 사물을 인식한다. 연구팀은 책, 노트북, 물병, 자전거 등 일상생활에서 흔히 접할 수 있는 23종의 사물로 실험한 결과 혼잡한 도로, 식당 등 잡음이 많은 공간에서는 83%의 사물 인식 정확도를 보였고, 가정 등 실내 공간에서의 사물 인식 정확도는 98%에 달하는 것을 확인했다. 연구팀의 노커 기술은 스마트폰 사용의 새로운 패러다임을 제시했다. 예를 들어 빈 물통을 스마트폰으로 노크하면 자동으로 물을 주문할 수 있고, IoT 기기를 활용하여 취침 전 침대를 노크하면 불을 끄고 알람을 자동 설정하는 등 총 15개의 구체적인 활용 방안을 선보였다. 이성주 교수는 “특별한 센서나 하드웨어 개발 없이 기존 스마트폰의 센서 조합과 기계학습을 활용해 개발한 소프트웨어 기술로, 스마트폰 사용자라면 보편적으로 사용할 수 있어 의미가 있다”라며 “사용자가 자주 이용하는 사물과의 상호 작용을 보다 쉽고 편하게 만들어 주는 기술이다”라고 말했다. 이 연구는 한국연구재단 차세대정보컴퓨팅기술개발사업과 정보통신기획평가원 정보통신․방송 기술개발사업 및 표준화 사업의 지원을 통해 수행됐다. 연구에 대한 설명과 시연은 링크에서 확인할 수 있고, ( https://www.youtube.com/watch?v=SyQn1vr_HeQ&feature=youtu.be ) 자세한 정보는 프로젝트 웹사이트에서 볼 수 있다. ( https://nmsl.kaist.ac.kr/projects/knocker/ ) □ 그림 설명 그림1. 물병에 노크 했을 때의 '노커' 기술 예시 그림2. 23개 사물에 대해 스마트폰 센서로 추출한 노크 고유 반응 시각화
2019.10.01
조회수 11942
장성주 교수 휴머노이드형 플라워봇 개발
장성주 교수 휴머노이드형 플라워봇 개발 KAIST 건설 및 환경 공학과의 장성주 교수가 개발한 세계 최초의 휴머노이드형 플라워봇 ‘로히니’가 파주 신도시 유비파크(http://www.ubi-park.co.kr/index_0.asp) 체험관에 설치되어 큰 관심을 불러 일으키고 있다. 로히니는 고개를 들거나 떨구는 동작, 꽃잎이 피고 지는 동작, 두 개의 가지를 이용해서 제스처를 구사하는 일이 가능하고 꽃잎과 줄기의 색깔을 바꾸어 감정을 표현할 수 있으며 RFID 태그를 통해 식별된 대화상대의 정보를 토대로 상황인지형 대화를 구사할 수 있다. 로히니는 유비쿼터스 홈 환경에서 지능형 디바이스들과 거주자를 연결하여 주거 내 상황의 모니터링과 제어를 매개하는 직관적이고 새로운 유형의 로봇형 이용자 인터페이스이다. 개발을 주도한 장성주 교수는 MIT 미디어랩에서 객원 연구원으로 근무하던 중 ‘지능형 건축 벽체(Smart Architectural Surface)’ 라는 다기능 첨단 디지털 벽체를 MIT와 공동 개발한 바 있고 현재 지능형 환경 디자인 연구실을 운영하면서 KAIST 미래도시 연구소(KIUSS) 유-스페이스 연구센터 디렉터를 겸하고 있다. ROHINI를 개발한 건설 및 환경공학과 장성주 교수 파주 Ubi-Park 체험관 u-House에 전시된 ‘ROHINI’ 로봇
2007.11.14
조회수 18666
김종환교수, 유전자·염색체 갖는 로봇, 세계 최초 개발
KAIST 김종환(전자전산학과)교수가 유전자와 염색체를 갖는 인공생명체로서의 로봇을 세계 최초로 개발했다. KAIST ITRC-지능로봇연구센터 소장인 김종환 교수는 지난해 5월 개발해 공개했던 유비쿼터스 로봇(유비봇)인 `리티"(Rity)에 14개의 인공 염색체를 각각 부여한 결과, 제 각각의 ` 성격"(personality)을 갖는 것을 확인했다고 최근 밝혔다. 로봇 염색체란 생각하고 느끼고 추론하고 욕구와 의지를 표현할 수 있는 로봇을 만들기 위해 컴퓨터로 처리된 일련의 지시체계(소프트웨어 프로그램)다. 각각의 염색체를 부여 받은 리티들은 같은 환경에서 어떤 자극을 주었을 때 어떤 것은 지루해했지만 다른 것들은 주인을 알아보고 펄떡거리면서 `기쁨"을 표현하는 다른 반응을 보였다. 왜냐하면 그들은 각기 다른 개성을 가지고 있고 그 개성은 전적으로 자신의 유전자에 좌우되기 때문이다. 리티는 김교수가 CCD 디지털카메라를 통해 실제 물리적 공간에 있는 인간과 상호 작용이 가능하도록 만든 강아지 모양의 3D 가상(컴퓨터 가상세계 안에서 살고 있는)소봇(Sobot). 소봇이란 네트워크를 통해 이동하며 언제 어디서든지 접속할 수 있고 자율적인 상황 인식과 사용자와 끊임없는 상호 작용이 가능한 소프트웨어로만 구성된 로봇을 말한다. 리티의 가상 환경은 3가지 물체와 주인 1명의 얼굴, 빛과 소리, 온도 센서, 접촉 센서, 시각 센서, 자이로 센서, 내부 타이머를 가지고 있고 이를 바탕으로 47가지의 자극 정보를 인식할 수 있다. 특히 행동 기반 및 학습 능력을 갖춘 인공 생명체로서 77가지 행동을 나타낼 수 있다. 김 교수는 지난해 12월 뉴질랜드에서 열린 `제2회 자율 로봇 및 에이전트에 관한 국제학회"(ICARA)의 기조강연(Keynote Speech)에서 이 같이 로봇의 `성격" 을 결정하는 14개의 인공 염색체에 대해 발표했고 현지 언론이 이를 크게 보도했다고 센터측은 밝혔다. 또 캐나다 9개 유력 일간지들도 지난 19일자로 1면 등 주요 면에 이 소식을 일제히 실었다. 센터측은 이 신문들이 `인공생명체 유전자 코드 발명- 인간처럼 말하고 느낄 수 있는 로봇이 곧 나타날 것", `인공생명체의 기원, 한국의 발명가, 생각하고 느끼고 복제까지 할 수 있는 유전자를 가진 로봇창조 가능성 제기"와 같은 제목으로 크게 보도했다고 소개했다. KAIST ITRC-지능로봇연구센터 관계자는 "김교수의 이런 연구는 그동안 많은 로봇 연구자들이 로봇의 지능을 높이고 어떻게 인간처럼 움직일 수 있게 하는데만 주력해온 것과 달리 찰스 다윈의 `종의 기원"과 같이 인공생명체로서의 로봇 종의 기원(시작)에 관한 것이어서 국내외 학계에 신선한 충격을 주고 있다"고 말했다. 그는 이어 "현재 리티는 단지 14개의 염색체를 약 2천 바이트의 데이터로 가지고 있지만 미래의 종들에게는 복잡한 유전적 특성과 더 많은 염색체가 부여될 수 있을 것"이라고 덧붙였다.
2005.01.31
조회수 21252
<<
첫번째페이지
<
이전 페이지
1
>
다음 페이지
>>
마지막 페이지 1