본문 바로가기 대메뉴 바로가기

KAIST 설명가능 인공지능연구센터, 2024 XAI 튜토리얼 시리즈 성황리 종료​
조회수 : 733 등록일 : 2024-11-29 작성자 : 홍보실

2024 XAI Tutorial Series 포스터

< 2024 XAI Tutorial Series 포스터 >

국내 최대의 설명가능 인공지능(XAI) 연구조직인 KAIST 설명가능 인공지능연구센터(센터장 KAIST 최재식 교수)는 11월 5일부터 22일까지 7회에 걸쳐 설명가능 인공지능 튜토리얼 시리즈를 성공적으로 개최했다. 이번 튜토리얼에는 학생, 연구자, 기업 실무자 등 누적인원 총 530여 명이 참여하여 설명가능 인공지능 기술에 대한 높은 관심과 수요를 보여주었다.

행사는 XAI의 주요 알고리즘부터 최신 연구 주제까지, 총 16개 세션 발표로 진행되었다. 개회 강연으로 ‘설명가능 인공지능 최신 연구 동향’에 대해 최재식 교수가 발표하였고, 이어서 KAIST 설명가능 인공지능연구센터 소속 석·박사 과정 연구원들이 △주요 XAI 알고리즘 △XAI 알고리즘의 평가기법 △거대 언어모델(LLM), 이미지 생성모델, 시계열 데이터에 대한 설명성 △ XAI Framework, 의료 도메인 적용 사례를 주제로 발표했다. 튜토리얼 마지막날에는 독일 Fraunhofer HHI(Heinrich Hertz Institute) 소속 연구원들이 개념 기반 설명(Concept-based Explanations)을 주제로 최신 연구 결과를 공유했다. 또한 이강혜 변호사(법무법인(유) 태평양)가 AI의 신뢰성과 안전성을 확보하기 위한 국내외 AI규제 동향에 대해 초청강연을 했다.

최재식 센터장의 세션 진행 모습

< 최재식 센터장의 세션 진행 모습 >

행사를 주관한 최재식 교수는 “최근 국내외에서 AI규제와 입법화가 본격화되면서, AI시스템의 신뢰성, 안전성, 설명성 등이 필수적으로 요구되는 상황에서 학계와 산업계에 관련 기술 교육 프로그램을 폭넓게 제공하고자 했다”고 말했다. 특히 이번 행사는 KAIST 김재철 AI대학원 성남연구센터와 공동으로 주최해 성남시 소재 유관 기업들의 적극적인 참여를 이끌어냈다.

튜토리얼의 발표자료와 녹화영상은 행사 홈페이지에서 제공된다.

(https://xai.kaist.ac.kr/Tutorial/2024/) 

KAIST 설명가능 인공지능연구센터는 AI 모델의 내부 구조를 해석하고, 모델의 의사결정 과정을 설명할 수 있는 알고리즘을 연구하며, 이를 의료, 금융, 제조 등 다양한 실제 도메인에 적용하는 산학 공동연구를 활발히 수행하고 있다. 본 연구센터는 사람중심인공지능 핵심원천기술개발사업의 일환으로 과학기술정보통신부와 정보통신기획평가원(IITP)의 지원을 받아 설립되었으며, 현재 KAIST 김재철AI대학원 성남연구센터에 위치하고 있다.

최재식 센터장의 세션 진행 모습

< 최재식 센터장의 세션 진행 모습 >

관련뉴스