< 2024 XAI Tutorial Series 포스터 >
국내 최대의 설명가능 인공지능(XAI) 연구조직인 KAIST 설명가능 인공지능연구센터(센터장 KAIST 최재식 교수)는 11월 5일부터 22일까지 7회에 걸쳐 설명가능 인공지능 튜토리얼 시리즈를 성공적으로 개최했다. 이번 튜토리얼에는 학생, 연구자, 기업 실무자 등 누적인원 총 530여 명이 참여하여 설명가능 인공지능 기술에 대한 높은 관심과 수요를 보여주었다.
행사는 XAI의 주요 알고리즘부터 최신 연구 주제까지, 총 16개 세션 발표로 진행되었다. 개회 강연으로 ‘설명가능 인공지능 최신 연구 동향’에 대해 최재식 교수가 발표하였고, 이어서 KAIST 설명가능 인공지능연구센터 소속 석·박사 과정 연구원들이 △주요 XAI 알고리즘 △XAI 알고리즘의 평가기법 △거대 언어모델(LLM), 이미지 생성모델, 시계열 데이터에 대한 설명성 △ XAI Framework, 의료 도메인 적용 사례를 주제로 발표했다. 튜토리얼 마지막날에는 독일 Fraunhofer HHI(Heinrich Hertz Institute) 소속 연구원들이 개념 기반 설명(Concept-based Explanations)을 주제로 최신 연구 결과를 공유했다. 또한 이강혜 변호사(법무법인(유) 태평양)가 AI의 신뢰성과 안전성을 확보하기 위한 국내외 AI규제 동향에 대해 초청강연을 했다.
< 최재식 센터장의 세션 진행 모습 >
행사를 주관한 최재식 교수는 “최근 국내외에서 AI규제와 입법화가 본격화되면서, AI시스템의 신뢰성, 안전성, 설명성 등이 필수적으로 요구되는 상황에서 학계와 산업계에 관련 기술 교육 프로그램을 폭넓게 제공하고자 했다”고 말했다. 특히 이번 행사는 KAIST 김재철 AI대학원 성남연구센터와 공동으로 주최해 성남시 소재 유관 기업들의 적극적인 참여를 이끌어냈다.
튜토리얼의 발표자료와 녹화영상은 행사 홈페이지에서 제공된다.
(https://xai.kaist.ac.kr/Tutorial/2024/)
KAIST 설명가능 인공지능연구센터는 AI 모델의 내부 구조를 해석하고, 모델의 의사결정 과정을 설명할 수 있는 알고리즘을 연구하며, 이를 의료, 금융, 제조 등 다양한 실제 도메인에 적용하는 산학 공동연구를 활발히 수행하고 있다. 본 연구센터는 사람중심인공지능 핵심원천기술개발사업의 일환으로 과학기술정보통신부와 정보통신기획평가원(IITP)의 지원을 받아 설립되었으며, 현재 KAIST 김재철AI대학원 성남연구센터에 위치하고 있다.
< 최재식 센터장의 세션 진행 모습 >
우리 대학 문술미래전략대학원 전우정 교수가 우리나라 법학자 최초로 세계 최고 과학 학술지인 네이처(Nature)의 자매지 ‘네이처 일렉트로닉스(Nature Electronics)'의 코리스판던스(Correspondance) 섹션에 군사 AI 통제의 과학적 도전에 관한 기고문을 게재했다고 8일 밝혔다. 지난 9월 9일부터 10일까지 서울에서 개최된 ‘2024 인공지능(AI)의 책임 있는 군사적 이용에 관한 고위급 회의(REAIM 2024)'에서 군사 AI 거버넌스에 중요한 진전이 이뤄졌다. 우리나라 뿐만 아니라 네덜란드, 싱가포르, 케냐, 영국이 공동 주최국으로 참여한 이 회의에서 미국, 독일, 프랑스, 일본 등 61개국이 ‘행동을 위한 청사진(Blueprint for Action)'을 채택했다. 이후 두 개 국가가 추가로 동참해 현재 총 63개국이 채택하고 있다. 전우정 교수는 이번 기고문에서 군사 분야의 AI 활용에 대한 이러한 원칙들을
2024-11-08우리 대학 설명가능 인공지능연구센터(센터장 최재식)가 'KCC 설명가능 인공지능(XAI) 워크숍 2024'를 지난달 27일 제주 국제컨벤션센터에서 개최했다.올해 3월 EU의 인공지능법이 최종 통과된 후 인공지능 시스템에 대한 글로벌 규제가 현실화 되고 인공지능 모델의 투명성 향상과 규제 준수를 지원할 수 있는 설명가능 인공지능(eXplainable Artificial Intelligence, 약칭 XAI) 기술에 대한 관심이 높아지고 있다. 이와 같은 시대적 흐름에 대응하기 위해 개최된 이번 워크숍에는 관련 분야에서 활발히 연구 중인 국내 연구기관과 기업 관계자들이 교류하며 최신 연구 동향을 공유했다.서홍석 교수(고려대)와 박천음 교수(한밭대)는 각각 '멀티모달 대화형 인공지능 관련 연구 동향'과 'Multimodal Counterfactual reasoning을 이용한 자연어 해석 연구 동향'을 주제로 최근 활발한 연구가 진행 중인 멀티모달 인공지능 모델 연구 및 해석 동향을
2024-07-08우리 대학 신소재공학과 김경민 교수 연구팀이 다양한 멤리스터* 소자를 이용한 설명 가능한 인공지능 (XAI) 시스템을 구현하는데 성공했다고 25일 밝혔다. *멤리스터 (Memristor): 메모리 (Memory)와 저항 (Resistor)의 합성어로, 입력 신호에 따라 소자의 저항 상태가 변하는 소자 최근 인공지능 (AI) 기술의 급속한 발전이 다양한 분야에서 성과를 이루고 있다. 이미지 인식, 음성 인식, 자연어 처리 등에서 AI의 적용 범위가 확대되며 우리의 일상생활에 깊숙이 자리 잡고 있다. AI는 인간의 뉴런 구조를 모방해 만든 ‘인공신경망’을 기반으로, 적게는 수백만 개에서 많게는 수조 개에 달하는 매개변수를 통해 데이터를 분석하고 의사 결정을 내린다. 그러나 이 많은 매개변수로 인해 AI 모델의 동작 원리를 정확하게 이해하기 어렵고, 이는 통상적으로 블랙박스에 비유되곤 한다. AI가 어떤 기준으로 결정을 내는지 알 수 없다면, AI에 결함이나
2024-03-25우리 대학 설명가능 인공지능연구센터(센터장 최재식 교수)가 주관하여 ‘KCC 2023 설명가능 인공지능(XAI) 워크샵’을 6월 19일(월) 제주 오리엔탈호텔에서 개최했다. 본 워크샵은 ‘사람중심인공지능핵심원천기술개발’ 연구과제에 참여하고 있는 여러 대학 및 연구기관 연구진들의 기술교류 행사로, 설명가능 인공지능(eXplainable Artificial Intelligence, 이하 XAI) 연구 동향 및 참여기관별 연구 성과를 공유하고 연구진 간 교류를 확대하고자 하는 목적으로 개최되었다. XAI 기술은 인공지능 모델의 예측 및 생성 결과에 대한 근거를 인간이 이해할 수 있는 방식으로 설명하는 기술로서 최근 EU를 중심으로 AI 규제의 움직임이 구체화되는 상황에서 투명하고 신뢰할 수 있는 AI기술을 구현할 수 있는 기술로 주목 받고 있다. 정보통신기획평가원 이현규 PM의 환영사와 한국정보과학회 이원준 회장의 축사로 시작된 행사는 국
2023-07-01인공지능(AI) 기술 발전과 활용 분야가 확대되면서 다양한 AI 기반 서비스들이 등장하고 있다. 하지만 실제로는 어떤 원리로 작동하는지 이해하기 어려워 이용자 입장에서는 막연하게 느껴질 때가 많다. 이 같은 상황에서 국내 대표적인 설명가능 인공지능 연구그룹인 KAIST 설명가능 인공지능연구센터 (센터장 최재식 교수) 연구진이 지난 1월 26일부터 2월 16일까지 7회에 걸쳐 ‘설명가능 인공지능 (XAI, Explainable Artificial Intelligence)’ 알고리즘, 평가기법, 툴 등 XAI 분야의 주요 기술을 총망라하여 소개하는 튜토리얼 시리즈를 개최했다. 이 행사에는 관련 분야 연구자뿐만 아니라 AI 기술기반 제품을 개발 중인 기업(성남시 소재) 관계자 약 130여명이 신청하여 XAI에 대해 높아진 관심을 알 수 있었다. 센터장 최재식 교수는 “AI기술을 활용하는 산업에서 필수로 자리잡게 될 XAI 분야 기반 기술에 대한 교육 프
2023-02-15