본문 바로가기 대메뉴 바로가기

KAIST 설명가능 인공지능연구센터, ‘KCC 2023 설명가능 인공지능(XAI) 워크샵’ 개최​
조회수 : 2997 등록일 : 2023-07-01 작성자 : 홍보실

행사 사진

< 행사 사진 >

우리 대학 설명가능 인공지능연구센터(센터장 최재식 교수)가 주관하여 ‘KCC 2023 설명가능 인공지능(XAI) 워크샵’을 6월 19일(월) 제주 오리엔탈호텔에서 개최했다.

본 워크샵은 ‘사람중심인공지능핵심원천기술개발’ 연구과제에 참여하고 있는 여러 대학 및 연구기관 연구진들의 기술교류 행사로, 설명가능 인공지능(eXplainable Artificial Intelligence, 이하 XAI) 연구 동향 및 참여기관별 연구 성과를 공유하고 연구진 간 교류를 확대하고자 하는 목적으로 개최되었다. XAI 기술은 인공지능 모델의 예측 및 생성 결과에 대한 근거를 인간이 이해할 수 있는 방식으로 설명하는 기술로서 최근 EU를 중심으로 AI 규제의 움직임이 구체화되는 상황에서 투명하고 신뢰할 수 있는 AI기술을 구현할 수 있는 기술로 주목 받고 있다.

정보통신기획평가원 이현규 PM의 환영사와 한국정보과학회 이원준 회장의 축사로 시작된 행사는 국내 인공지능 분야 석학 및 산업계 전문가의 초청강연과 총37편의 논문 발표로 진행되어 관련분야 연구진의 기술교류의 장을 제공했다.

초청강연에서는 ▲설명가능 인공지능 연구동향(KAIST/INEEJI 최재식 교수) ▲Explaining Visual Biases as Words via Vision-Language Foundation Models(KAIST 신진우 교수) ▲리걸테크 규제 및 표준화 동향(법무법인 디라이트 조원희 대표) ▲질의 기반 의미그래프와 적응형 메타학습을 이용한 생성형 요약 시스템(성균관대 고영중 교수) ▲법, 정책 이슈를 포함해서, 설명요구권의 구체화 과정에서의 알고리즘 공개와 영업비밀 관계(경희대 김윤명 교수) ▲화학공장의 연속생산공정에서 공정 Trouble 원인 분석을 위한 XAI 적용 사례 공유(SK디스커버리 신해빈 매니저) ▲다중 클래스 딥러닝의 의사결정에 대한 시각적 이유 설명(경북대 남우정 교수)이 소개되었다.

논문발표에서는 연구진들의 XAI 분야 연구 성과 발표가 이어졌다. 특히, ▲투자자 심리와 설명가능 인공지능 기법을 적용한 비선형 자산 변동성 예측 모델 개선(이승주(서울대), 박진성(서울대), 이재욱(서울대)) ▲로컬 그라디언트 정렬을 통한 강건한 해석 가능성(정석현(서울대), 주성환(성균관대), 허주연(Univ. of Cambridge), 아드리안 윌러(Univ. of Cambridge/The Alan Turing Institute), 문태섭(서울대))이 우수논문상을 수상했으며, XAI 알고리즘 분야 연구와 의료, 법률, 금융 등 실제 도메인에 XAI를 적용한 최신사례 발표가 이어져 참석자들의 관심이 높았다.

이번 행사로, AI 연구자뿐만 아니라 의료, 법률, 금융 등 다양한 산업분야 관련자들이 XAI 기술의 필요성에 대한 공감대를 확인했으며, 이에 따라 향후 국내 XAI 기술의 저변을 확대하고, 산학협력을 통해 연구개발의 방향성을 구체화시켜 나갈 수 있을 것으로 기대된다.

설명가능 인공지능 워크샵 포스터

< 설명가능 인공지능 워크샵 포스터 >

관련뉴스