-
박종세 교수팀, 2024 IISWC 다수 상 동시 석권
우리 대학 전산학부 박종세 교수 연구팀이 지난 9월 15일부터 9월 17일까지 캐나다 밴쿠버에서 열린 ‘2024 IEEE 국제 워크로드 특성화 심포지엄(IEEE International Symposium on Workload Characterization, 이하 IISWC 2024)’에서 최우수 논문상(Best Paper Award)과 최우수 연구 기록물 상(Distinguished Artifact Award)’을 동시에 수상했다고 26일 밝혔다.
박 교수 연구팀은 ‘초거대 언어모델 추론 서비스 제공을 위한 HW/SW 공동 시뮬레이션 인프라(LLMServingSim: A HW/SW Co-Simulation Infrastructure for LLM Inference Serving at Scale)’ 논문으로 두 상을 동시에 수상했다.
IISWC는 컴퓨터 시스템 워크로드 특성화 분야에서 권위를 자랑하는 국제 학회이며, 개최시마다 최우수 논문상과 최우수 연구 기록물 상을 하나씩 수여하는데 올해에는 박 교수팀의 논문이 두 상을 모두 단독으로 수상했다.
이번 수상 연구는 대규모 거대언어모델(LLM) 추론 서비스를 위한 하드웨어와 소프트웨어 통합 시뮬레이션 인프라를 최초 개발한 점, 향후 LLM 추론 연구의 지속적인 발전을 위해 오픈소스로 공개한 코드의 완성도와 사용자 편의성 측면에서 높은 평가를 받았다.
이번 연구에서 연구팀은 챗GPT와 같은 LLM 추론 서비스를 실행하는 대규모 시스템을 여러 가지 하드웨어와 소프트웨어를 추가해 시뮬레이션할 수 있는 시뮬레이션 인프라를 제안했다.
이를 통해 GPU(그래픽처리장치), NPU(신경망처리장치)와 PIM(지능형메모리반도체)과 같은 다양한 하드웨어뿐만 아니라 반복 수준 스케쥴링, KV 캐시 페이징과 같은 초거대 언어모델 추론을 위한 소프트웨어적 요소를 모두 함께 시뮬레이션할 수 있었다.
이번 연구는 KAIST 전산학부 박종세 교수팀의 조재홍, 김민수, 최현민, 허구슬 학생들이 주도했다.
상을 받은 KAIST 전산학부 박종세 교수는 “이번 연구를 통해, LLM 클라우드 상에서 다양한 AI 반도체와 시스템 소프트웨어의 성능을 종합적으로 평가해 볼 수 있는 오픈소스 도구(Tool)을 공개할 수 있게 되어 기쁘고, 앞으로도 생성형 AI를 위한 클라우드 시스템 연구를 지속해 나갈 것이다”라고 소감을 전했다.
이번 연구 결과는, 챗GPT와 같이 LLM을 활용하는 단순한 챗봇 AI를 넘어, 생성형 AI(Generative AI)로 대표되는 미래 AI 산업에서 이종 AI 반도체 기반 클라우드 시스템을 구축하는 등 다양한 분야에 활용될 수 있을 것으로 기대된다.
한편 이번 연구는 한국연구재단 우수신진연구자지원사업, 정보통신기획평가원(IITP), 인공지능반도체대학원지원사업, 및 하이퍼엑셀의 지원을 받아 수행됐다.
2024.10.11
조회수 1368
-
미국 국방부가 주목한 C-러스트 기술 선도하다
컴퓨터 시스템을 작동시키기 위해서는 소프트웨어를 작성해야 하는데 그때 필요한 언어가 바로 프로그래밍 언어이다. 실행속도도 빠르고 유지보수도 쉬운 언어가 C언어인데 메모리 할당 및 관리 등에 치명적인 문제점을 가지고 있다. 이런 문제를 해결하기 위해 개발된 프로그래밍 언어는 러스트이다. 미국 백악관이나 국방성에서 메모리 문제를 막기 위해 러스트같이 안전한 언어 사용을 촉구하고 있는데 우리 대학 연구진이 C-러스트 코드 번역 기술을 이미 선제적으로 개발하고 선도하고 있어 화제다.
우리 대학 전산학부 류석영 교수 연구팀(프로그래밍 언어 연구실)이 C언어의 유니언(union)*을 러스트의 태그드 유니언(tagged union)으로 변환하는 기술을 세계 최초로 개발했다고 13일 밝혔다.
*유니언: 여러 종류의 데이터를 같은 공간에 보관해 메모리 효율을 높이는 C언어의 핵심 기능이다. 그러나 보관된 데이터가 어떤 종류인지 구분하지 않아 메모리 문제를 일으킬 수 있다.
**태그드 유니언: 같은 공간에 보관할 수 있는 여러 종류의 데이터 중 어떤 종류의 데이터를 보관하는지 태그를 붙여서 구분하여, 메모리 문제를 일으키지 않는다.
연구팀은 C언어의 유니언에 특화된 새로운 프로그램 분석 기법을 고안해 러스트의 태그드 유니언으로 자동 번역하는 데 성공했다.
올해 2월 백악관에서도 C언어의 사용을 중단하라고 촉구한 바가 있고(https://www.whitehouse.gov/wp-content/uploads/2024/02/Final-ONCD-Technical-Report.pdf) 미국 국방고등연구계획국(이하 DARPA)에서 C언어로 작성된 코드를 러스트(Rust)로 자동 번역하는 기술을 개발하는 연구 과제를 발표했다.(https://www.darpa.mil/program/translating-all-c-to-rust) DARPA는 미국 국방성의 연구·개발을 담당하는 기관이며 인터넷의 원형인 아파넷(ARPANET)을 개발하는 등 혁신적이고 영향력 있는 연구를 지원해 왔다. DARPA는 이 과제를 제안하며 C의 메모리 문제를 막기 위해 러스트같이 안전한 언어를 사용해야 한다고 밝혔다.
러스트는 2015년부터 개발된 프로그래밍 언어다. 운영 체제, 웹 브라우저 개발 등에 쓰이며, 2022년에는 리눅스(Linux) 개발에도 공식 사용되기 시작했다.(https://www.infoq.com/news/2022/12/linux-6-1-rust/) C와 달리 프로그램 실행 전에 메모리 문제를 탐지하고 예방할 수 있는 것이 특징이다.
류 교수 연구진은 2023년 5월과 2024년 6월에 각각 C의 뮤텍스(mutex)*와 출력 파라미터(output parameter)**를 러스트로 변환하는 기술을 세계 최초로 개발해, 최우수 국제 학술대회인 국제소프트웨어엔지니어링학회(ICSE)와 프로그래밍언어설계구현학회(PLDI)에 발표한 바 있다.
*뮤텍스: 프로그램 동기화에 필요한 기능
**출력 파라미터: 계산 결과 전달에 사용되는 기능
C언어와 러스트의 큰 간극으로 인해 세계적으로도 C-러스트 코드 번역 기술을 성공적으로 개발한 연구팀은 극소수다. 그마저도 포인터(pointer)*를 변환하는 데 머물고 있다. 그러나 류석영 교수 연구팀은 C의 여러 핵심 기능을 변환하는 기법을 연달아 제시해 C-러스트 코드 번역 기술을 선도하고 있다.
*포인터: 데이터 저장 위치를 표현하는 기능
류석영 교수는 “안전한 소프트웨어 제작을 목표로 연구하면서 C-러스트 코드 번역의 중요성을 일찍이 파악하고 각종 프로그래밍 언어 기법들을 코드 번역에 적극적으로 도입하여 나온 결과”라면서, “완전한 자동 번역을 위해 아직 풀어야 할 난제가 많으니 후속 연구에 정진하여 계속 분야를 선도하겠다”고 말했다.
전산학부 홍재민 석박사통합과정 학생이 제1 저자로 참여한 이번 연구 결과는 최우수 국제 학술대회인 국제자동소프트웨어엔지니어링학회(ASE)에 채택됐다(논문명: To Tag, or Not to Tag: Translating C's Unions to Rust's Tagged Unions).
한편 이번 연구는 한국연구재단 선도연구센터 및 중견연구자지원사업, 정보통신기획평가원(IITP), 삼성전자의 지원을 받아 수행됐다.
2024.08.13
조회수 3114
-
변화에 민감한 사용자도 맞춰주는 인공지능 기술 개발
인공지능 심층신경망 모델의 추천시스템에서 시간이 지남에 따라 사용자의 관심이 변하더라도 변화한 관심 또한 효과적으로 학습할 수 있는 인공지능 훈련 기술 개발이 요구되고 있다. 사용자의 관심이 급변하더라도 기존의 지식을 유지하며 새로운 지식을 축적하는 인공지능 연속 학습을 가능하게 하는 기술이 KAIST 연구진에 의해 개발됐다.
우리 대학 전산학부 이재길 교수 연구팀이 다양한 데이터 변화에 적응하며 새로운 지식을 학습함과 동시에 기존의 지식을 망각하지 않는 새로운 연속 학습(continual learning) 기술을 개발했다고 5일 밝혔다.
최근 연속 학습은 훈련 비용을 줄일 수 있도록 프롬프트(prompt) 기반 방식이 대세를 이루고 있다. 각 작업에 특화된 지식을 프롬프트에 저장하고, 적절한 프롬프트를 입력 데이터에 추가해 심층신경망에 전달함으로써 과거 지식을 효과적으로 활용한다.
이재길 교수팀은 기존 접근방식과 다르게 작업 간의 다양한 변화 정도에 적응할 수 있는 적응적 프롬프팅(adaptive prompting)에 기반한 연속 학습 기술을 제안했다. 현재 학습하려는 작업이 기존에 학습하였던 작업과 유사하다면 새로운 프롬프트를 생성하지 않고 그 작업에 할당된 프롬프트에 추가로 지식을 축적한다. 즉, 완전히 새로운 작업이 입력될 때만 이를 담당하기 위한 새로운 프롬프트를 생성하도록 하고 연구팀은 새로운 작업이 들어올 때마다 클러스터링이 적절한지 검사해 최적의 클러스터링 상태를 유지하도록 했다.
연구팀은 이미지 분류 문제에 대해 작업 간의 다양한 변화 정도를 가지는 실세계 데이터를 사용해 방법론을 검증했다. 이 결과 연구팀은 기존의 프롬프트 기반 연속 학습 방법론에 비해, 작업 간의 변화 정도가 항상 큰 환경에서는 최대 14%의 정확도 향상을 달성했고, 작업 간의 변화가 클 수도 있고 작을 수도 있는 환경에서는 최대 8%의 정확도 향상을 달성했다.
또한, 제안한 방법에서 유지하는 클러스터 개수가 실제 유사한 작업의 그룹 개수와 거의 같음을 확인했다. 온라인 클러스터링을 수행하는 비용이 매우 작아 대용량 데이터에도 쉽게 적용할 수 있다.
연구팀을 지도한 이재길 교수도 "연속 학습 분야의 새로운 지평을 열 만한 획기적인 방법이며 실용화 및 기술 이전이 이뤄지면 심층 학습 학계 및 산업계에 큰 파급효과를 낼 수 있을 것이다ˮ고 말했다.
전산학부 김도영 박사과정 학생이 제1 저자, 이영준 박사과정, 방지환 박사과정 학생이 제4, 제6 저자로 각각 참여한 이번 연구는 최고권위 국제학술대회 `국제머신러닝학회(ICML) 2024'에서 지난 7월 발표됐다. (논문명 : One Size Fits All for Semantic Shifts: Adaptive Prompt Tuning for Continual Learning)
한편, 이 기술은 과학기술정보통신부 재원으로 정보통신기획평가원의 지원을 받아 사람중심인공지능핵심원천기술개발사업 AI학습능력개선기술개발 과제로 개발한 연구성과 결과물(2022-0-00157, 강건하고 공정하며 확장 가능한 데이터 중심의 연속 학습)이다.
2024.08.06
조회수 1560
-
팬데믹 대비 관련 조약 준수 방안 제시
코로나 사태 이후, 세계보건기구(이하 WHO)는 또 다른 팬데믹이 올 것을 대비해 국가 간 백신 공급의 형평성 확보 및 원활화를 위해 팬데믹 조약을 협상 중이다. 2025년에 조약이 타결될 것으로 예측되고 있는데 KAIST 연구진이 팬데믹 조약 이후 실제 국가가 동 조약을 잘 준수할 수 있도록 하는 획기적인 방안을 제시하여 화제다.
우리 대학 문술미래전략대학원 박태정 교수가 대한민국 법학자로는 최초로 네이처 본지, 월드 뷰(World View) 코너에 WHO에서 협상 중인 팬데믹 조약의 준수 방안에 대한 연구를 게재했다고 18일 밝혔다. 박태정 교수는 현재 WHO에서 협상 중인 팬데믹 조약의 준수도를 높일 획기적인 방안을 제시했다.
실제 국내법과 달리 국제법인 조약은 국가가 준수하지 않아도 처벌받지 않기 때문에 많은 국가가 조약을 준수하지 않고 있는 태생적인 한계를 가지고 있다. 이번 팬데믹 조약도 개발도상국의 백신 접근, 백신 공급의 원활화 등 매우 중요한 의제를 포함하고 있지만 많은 국제법 학자들은 실제 팬데믹 조약 타결 후 국가들이 조약을 준수하지 않은 것을 걱정하고 있다.
이에 대해 이미 많은 학자가 팬데믹 조약의 준수도를 높일 여러 방안을 제시했다. 예를 들어, 국제원자력기구가 핵확산금지조약(NPT)의 준수를 위해서 핵 사찰단을 국가에 파견시키듯이 WHO도 별도의 독립 모니터링 위원회(Independent Monitoring Committee) 조항을 조약에 포함해 추후 팬데믹 조약 준수를 위한 위원회를 가동하자는 연구 등이 있다.
이에 대해 박태정 교수는 팬데믹 조약에 포함할 조항내용을 통해 준수도를 높이기보다는 실제 정부 부처 내의 조약 준수 절차 과정 및 관련 제도 속에서 해결의 실마리를 찾았다.
보건복지부가 팬데믹 조약 협상을 주도적으로 타결했어도 그 이후, 조항의 준수는 보건복지부 혼자서 해결할 수 있는 문제가 아니며, 식약처, 산업통상자원부, 기획재정부, 외교부, 법무부 등 여러 부처가 협력으로 해결해야 한다는 점을 설명했다. 백신 제조회사를 설득하기 위해 식약처와 산업통상자원부의 협력이 필요하고, 보건 인력 확충 및 R&D 강화를 포함한 여타 예산확보를 위해 기획재정부의 도움이, 국제협력을 위해 외교부의 도움, 그리고 조약의 수정과 법률 검토 등을 위해 법무부의 협력도 필요하다고 역설했다.
박 교수는 결국 정부 내에서 팬데믹 조약 준수와 관련한 관계부처의 협업이 얼마나 순조롭게 이루어지냐에 따라 실제 준수도가 정해질 것이라는 점을 강조했고, 보다 순조로운 협업을 위해서 보건복지부의 자체적인 대응 외에도 대통령 혹은 국무총리 산하의 팬데믹 조약 준수 관련 전담 조직(Task force) 팀을 두어 적극적인 협력을 유도할 수 있는 제도적 방안도 제시했다.
또한 팬데믹 조약을 대상으로 한 연구이지만 이번 연구 결과는 기후변화를 위한 파리 협약 조약 이행뿐만 아니라 통상, 인권, 해양 등 다양한 분야의 조약 준수도 연구에도 큰 영향을 끼칠 것으로 기대된다.
박태정 교수는 “국제법은 국가 간 미래에 대한 약속이므로 해당 국가의 미래의 비전과 전략과 직결된다. 국가가 국제법인 조약에 서명을 하였다는 것은 조약에 담겨진 미래에 청사진을 그 국가의 국민과 약속한 것이다. 그러므로 대한민국도 팬데믹 조약의 준수를 위해서 최선을 다해야 한다” 라고 설명한 후 “조약의 준수를 위해서 조약 관련 관계부처의 협력과 협업이 절실하며 대통령과 국무총리 급에서 팬데믹 조약 준수를 위한 전담 조직(Task force) 팀 구축과 같은 제도적 방안이 필요하다” 고 강조했다.
2024.06.18
조회수 2453
-
인공지능이 상황에 따라 알아서 업데이트되다
최근 실생활에 활용되는 인공지능 모델이 시간이 지남에 따라 성능이 점차 떨어지는 현상이 다수 발견되었고, 이에 따라 지속가능한 인공지능 학습 기술에 대한 필요성이 커지고 있다. AI 모델이 꾸준히 정확한 판단을 내리는 것은 더욱 안전하고 신뢰할 수 있는 인공지능을 만들기 위한 중요한 요소이다.
우리 대학 전기및전자공학부 황의종 교수 연구팀이 시간에 따라 데이터의 분포가 변화하는 드리프트 환경에서도 인공지능이 정확한 판단을 내리도록 돕는 새로운 학습 데이터 선택 기술을 개발했다고 14일 밝혔다.
최근 인공지능이 다양한 분야에서 인간의 능력을 뛰어넘을 정도의 높은 성능을 보여주고 있지만, 대부분의 좋은 결과는 AI 모델을 훈련시키고 성능을 테스트할 때 데이터의 분포가 변하지 않는 정적인 환경을 가정함으로써 얻어진다. 하지만 이러한 가정과는 다르게 SK 하이닉스의 반도체 공정 과정에서 시간에 따른 장비의 노화와 주기적인 점검으로 인해 센서 데이터의 관측값이 지속적으로 변화하는 드리프트 현상이 관측되고 있다.
시간이 지나면서 데이터와 정답 레이블 간의 결정 경계 패턴이 변경되면, 과거에 학습되었던 AI 모델이 내린 판단이 현재 시점에서는 부정확하게 되면서 모델의 성능이 점차 악화될 수 있다.
본 연구팀은 이러한 문제를 해결하기 위해, 데이터를 학습했을 때 AI 모델의 업데이트 정도와 방향을 나타내는 그래디언트(gradient)를 활용한 개념을 도입하여 제시한 개념이 드리프트 상황에서 학습에 효과적인 데이터를 선택하는 데에 도움을 줄 수 있음을 이론적으로 실험적으로 분석했다. 그리고 이러한 분석을 바탕으로 효과적인 학습 데이터 선택 기법을 제안하여, 데이터의 분포와 결정 경계가 변화해도 모델을 강건하게 학습할 수 있는 지속 가능한 데이터 중심의 AI 학습 프레임워크를 제안했다.
본 학습 프레임워크의 주요 이점은, 기존의 변화하는 데이터에 맞춰서 모델을 적응시키는 모델 중심의 AI 기법과 달리, 드리프트의 주요 원인이라고 볼 수 있는 데이터 자체를 직접 전처리를 통해 현재 학습에 최적화된 데이터로 바꿔줌으로써, 기존의 AI 모델 종류에 상관없이 쉽게 확장될 수 있다는 점에 있다. 실제로 본 기법을 통해 시간에 따라 데이터의 분포가 변화되었을 때에도 AI 모델의 성능, 즉 정확도를 안정적으로 유지할 수 있었다.
제1 저자인 김민수 박사과정 학생은 "이번 연구를 통해 인공지능을 한번 잘 학습하는 것도 중요하지만, 그것을 변화하는 환경에 따라 계속해서 관리하고 성능을 유지하는 것도 중요하다는 사실을 알릴 수 있으면 좋겠다ˮ고 밝혔다.
연구팀을 지도한 황의종 교수는 “인공지능이 변화하는 데이터에 대해서도 성능이 저하되지 않고 유지하는 데에 도움이 되기를 기대한다”고 말했다.
본 연구에는 KAIST 전기및전자공학부의 김민수 박사과정이 제1 저자, 황성현 박사과정이 제2 저자, 그리고 황의종 교수(KAIST)가 교신 저자로 참여했다. 이번 연구는 지난 2월 캐나다 밴쿠버에서 열린 인공지능 최고 권위 국제학술 대회인 ‘국제 인공지능 학회(Association for the Advancement of Artificial Intelligence, AAAI)’에서 발표되었다. (논문명: Quilt: Robust Data Segment Selection against Concept Drifts)
한편, 이 기술은 SK 하이닉스 인공지능협력센터(AI Collaboration Center; AICC)의 지원을 받은 ‘노이즈 및 변동성이 있는 FDC 데이터에 대한 강건한 학습’ 과제 (K20.05) 와 정보통신기획평가원의 지원을 받은 ‘강건하고 공정하며 확장가능한 데이터 중심의 연속 학습’ 과제 (2022-0-00157) 와 한국연구재단의 지원을 받은 ‘데이터 중심의 신뢰 가능한 인공지능’ 과제 성과다.
2024.03.14
조회수 3464
-
대북 제재 영향을 야간조도로 추정하다
경제 제재가 해당 국가의 경제에 미치는 영향에 대해서는 제대로 파악하기가 쉽지 않다. 제재를 받는 국가의 특성상, 신뢰할 수 있는 데이터를 얻기가 힘들고, 데이터가 있어도 경제 제재의 영향 때문인지 해당 국가의 기존 정책 기조 등 다른 원인 때문인지 구분하기가 쉽지 않기 때문이다.
우리 대학의 경영대학 기술경영학부 김지희 교수가 한국개발연구원(KDI) 김규철 박사, 홍콩과기대(HKUST) 박상윤 교수, 홍콩대(HKU) 창 선(Chang Sun) 교수와 공동 연구를 통해, 대북 제재가 북한 경제에 실질적으로 미친 영향을 북한의 야간조도를 활용해 추정했다고 13일 밝혔다.
북한은 2016-2017년 동안 여러 차례에 걸쳐 미사일 시험 발사와 핵실험을 진행했고, 이에 대응하여 UN과 미국을 비롯한 국제 사회는 대북 제재를 강화해 왔다(그림 1). 연구진은 이 시기에 대북 제재가 북한 경제에 미친 영향을 추정하기 위해, 국내 북한 전문가들이 그동안 구축해 놓은 데이터와 북한의 야간 조도를 활용하고, 지역별 산업 구조에 따라 제재에 영향을 받는 정도가 다름을 측정해 제재 효과 추정의 어려움을 극복했다.
구체적으로 연구진은 산업연구원 이석기 박사 연구팀에서 구축한 북한 기업 데이터를 활용해 북한의 각 지역별 제조업종별 비중을 계산한 후, UN에서 제공하는 국가별 무역 거래 데이터(Comtrade) 및 북한 제재 물품 목록과 결합해, 지역별로 제재에 영향을 받는 정도를 나타내는 제재 취약도(sanction exposure)를 계산했다. (그림 2)
또한 인공위성 야간 조도 데이터와 북한과 비슷한 경제 수준을 나타내는 중국 특정 지방의 GDP-야간 조도 탄력성을 사용해 2013~2019년 북한의 지역별 제조업 생산량을 추정했다. 이러한 데이터를 활용해 지역별 제재 취약도에 따라 생산량 변화에 차이가 있었는지 살펴본 뒤, 정량적 공간 균형 경제학 모형을 추정한 결과, 대북제재가 북한의 제조업생산을 12.9%, 실질 소득을 15.3% 감소시킨 것으로 파악됐다. 또한 모형을 통해 북한의 모든 수입과 수출을 차단하는 극단적인 제재가 가해지는 가상 시나리오를 분석한 결과, 북한의 제조업 생산량이 43% 감소할 것으로 예측됐다.
또한, 이번 무역제재의 영향으로 평양을 제외한 다섯개 대도시 (신의주, 곽산, 원산, 회령, 함흥) 장마당에서 판매되는 수입금지 상품의 가격이 평균적으로 38% 오른것을 확인할 수 있었다. (그림 3) 평양에서는 이 같은 급격한 가격 상승이 관찰되지 않았는데 이는 북한 당국이 제재로 인한 평양 주민의 동요를 방지하기 위해 장마당 가격을 통제하였을 것으로 저자들은 분석하였다. 반면 수출금지 상품의 경우 장마당 가격이 다소 하락하거나 큰 변화가 없는 것으로 나타났다.
연구에 참여한 KAIST 경영대학 기술경영학부 김지희 교수는 “이번 연구는 무역 제재가 북한 경제에 미친 영향을 신뢰할 수 있는 데이터를 통해 정량적으로 추정하고, 또한 제재의 경제적 영향을 분석할 수 있는 방법론을 제시한다는 점에서 의미가 있다”며 “앞으로 이러한 방법론을 다른 제재 국가에도 적용하여 경제적 피해를 추정해 보고, 제재 국가의 경제적 대응에 관한 일반적인 분석도 할 수 있을 것”이라고 말했다.
이번 연구 결과는 `국제경제학 저널(Journal of International Economics)'에 지난 11월 게재됐다. (논문명: The economic costs of trade sanctions: Evidence from North Korea, 무역 제재의 경제적 비용: 북한 사례를 바탕으로)
논문링크: https://www.sciencedirect.com/science/article/abs/pii/S0022199623000995
2023.12.13
조회수 2721
-
독립적으로 더 스마트해진 ‘도커SSD’ 개발
정보를 저장하는 솔리드 스테이트 드라이브(Solid-Sate Drive, SSD)가 컴퓨터 없이도 데이터 처리가 가능한 독립 서버로 운영이 가능해지며 편리성이 극대화되고 데이터의 탄소 배출량도 획기적으로 감소시킬 수 있는 새로운 형태의 스마트 SSD로 개발됐다.
우리 대학 전기및전자공학부 정명수 교수 연구팀(컴퓨터 아키텍처 및 메모리 시스템 연구실)이 물리적 장치의 실행이 아닌 가상으로 데이터 처리와 운영이 되는 `도커(Docker)' 개념을 적용한 새로운 고성능·저전력 메모리 (PIM, Processing-In-Memory) 모델 중 하나인 `도커SSD'를 개발했다고 27일 밝혔다.
스마트 SSD는 여러 가지 데이터를 처리하는 프로그램들을 데이터가 실제 존재하는 스토리지 근처에서 실행할 수 있게 함으로써 데이터 이동에 불필요한 에너지 및 전력 소모를 줄이고 고성능 결과를 얻게 하는 기술로 오랫동안 다양한 곳에 적용을 시도해 왔다. 하지만 기존 데이터 처리 프로그램을 SSD 제조사별로 그리고 장치가 제공하는 환경별로 모두 수정하고 새로 만들어야 하는 문제 때문에 스마트 SSD를 다양한 환경과 데이터 처리 응용에 적용하는 것에 한계가 존재했다. 이러한 한계를 극복하고자 KAIST 연구팀은 스마트 SSD의 제조사나 장치 환경에 관계 없이 현존하는 여러 가지 프로그램들을 그대로 스토리지에 이식하여 실행할 수 있는 도커SSD를 개발하였다.
이를 위해 정명수 교수 연구팀은 사용자들에게 데이터 처리 기술 중 편의성을 제공하는 방법으로 `컨테이너'를 주목했다. 컨테이너는 응용 프로그램과 해당 프로그램 실행에 필요한 라이브러리를 모두 포함한 소프트웨어 패키지로, 외부의 환경에 구애받지 않고, 컨테이너 내부적으로 독립적인 실행 환경을 운용할 수 있게 해준다.
연구팀이 개발한 도커SSD는 가상화 운영체제 환경인 *도커(Docker)를 스토리지 내부에서 실행할 수 있는 특허 기술을 적용해 호스트로부터 요청받은 컨테이너 단위의 작업을 처리한다. 사용자들은 메모리/스토리지 제조사에 영향을 받지 않고 다양한 응용 프로그램을 스토리지 내부에서 실행할 수 있다. 또한, 외부와 독립적인 실행 환경을 제공하는 컨테이너의 특성 덕분에, 사용자들이 기존 응용 프로그램의 소스 코드를 수정할 필요조차 없어져 사용자 편의성이 극대화된다.
☞ 도커(Docker): 리눅스 컨테이너를 만들고 사용할 수 있도록 하는 컨테이너화 기술
연구팀은 일반적으로 SSD 장치에 접근하기 위해 사용되는 스토리지 프로토콜과, 도커 소프트웨어 동작의 기반이 되는 네트워크 관련 프로토콜이 서로 호환되지 않는다는 점을 극복하기 위해 스토리지 프로토콜을 통해 네트워크 관련 메시지를 전송할 수 있는 새로운 인터페이스를 독자 개발했다. 또한, 컨테이너 및 도커를 실행하기 위해서 기존 운영체제를 경량화하여 도커SSD 내부에 통합했다. 마지막으로, 스토리지에 내재된 저사양 프로세서를 활용하여 작업을 처리할 경우 성능이 저하될 수 있다는 점을 착안하여 자체 제작한 저전력 하드웨어 가속 모듈을 활용하여 네트워크 및 입출력 관련 동작을 가속함으로써 문제를 해결했다.
연구팀은 도커SSD에 적용한 운영체제 수준 가상화의 실효성 검증을 통해 현재 학계에서 가장 자주 사용되는 스토리지 기반 모델보다도 데이터를 2배 빠르게 처리하면서 전력 소모 또한 약 2배 감소시킴을 확인했다.
정명수 교수는 "불필요한 데이터 이동을 최소화하여 빠르면서 에너지 절약에 최적화된, 동시에 사용자 입장에서 편리하면서도 우수한 호환성을 가진 메모리 모델을 확보했다ˮ며 "고성능·저전력 메모리 모델인 도커SSD는 빠르게 확장하고 있는 국내·외 데이터센터 운영 기업/기관에 실용화되어 탄소중립에 기여할 수 있을 것ˮ이라 말했다.
이번 연구는 스코틀랜드 에든버러에서 오는 2024년 3월에 열릴 컴퓨터 구조 분야 최우수 학술대회인 `국제 고성능 컴퓨터 구조 학회(IEEE International Symposium on High Performance Computer Architecture, HPCA)'에 관련 논문(논문명: DockerSSD: Containerized In-Storage Processing and Hardware Acceleration for Computational SSDs)으로 발표될 예정이다.
한편 해당 연구는 KAIST 교원창업 회사인 파네시아(https://panmnesia.com)와 정보통신기획평가원등의 연구 지원을 받아 진행됐다.
2023.11.27
조회수 3819
-
2.4배 가격 효율적인 챗GPT 핵심 AI반도체 개발
오픈AI가 출시한 챗GPT는 전 세계적으로 화두이며 이 기술이 가져올 변화에 모두 주목하고 있다. 이 기술은 거대 언어 모델을 기반으로 하고 있다. 거대 언어 모델은 기존 인공지능과는 달리 전례 없는 큰 규모의 인공지능 모델이다. 이를 운영하기 위해서는 수많은 고성능 GPU가 필요해, 천문학적인 컴퓨팅 비용이 든다는 문제점이 있다.
우리 대학 전기및전자공학부 김주영 교수 연구팀이 챗GPT에 핵심으로 사용되는 거대 언어 모델의 추론 연산을 효율적으로 가속하는 AI 반도체를 개발했다고 4일 밝혔다.
연구팀이 개발한 AI 반도체 ‘LPU(Latency Processing Unit)’는 거대 언어 모델의 추론 연산을 효율적으로 가속한다. 메모리 대역폭 사용을 극대화하고 추론에 필요한 모든 연산을 고속으로 수행 가능한 연산 엔진을 갖춘 AI 반도체이며, 자체 네트워킹을 내장하여 다수개 가속기로 확장이 용이하다. 이 LPU 기반의 가속 어플라이언스 서버는 업계 최고의 고성능 GPU인 엔비디아 A100 기반 슈퍼컴퓨터보다 성능은 최대 50%, 가격 대비 성능은 2.4배가량 높였다. 이는 최근 급격하게 생성형 AI 서비스 수요가 증가하고 있는 데이터센터의에서 고성능 GPU를 대체할 수 있을 것으로 기대한다.
이번 연구는 김주영 교수의 창업기업인 ㈜하이퍼엑셀에서 수행했으며 미국시간 7월 12일 샌프란시스코에서 진행된 국제 반도체 설계 자동화 학회(Design Automation Conference, 이하 DAC)에서 공학 부문 최고 발표상(Engineering Best Presentation Award)을 수상하는 쾌거를 이뤘다.
DAC은 국제 반도체 설계 분야의 대표 학회이며, 특히 전자 설계 자동화(Electronic Design Automation, EDA)와 반도체 설계자산(Semiconductor Intellectual Property, IP) 기술 관련하여 세계적인 반도체 설계 기술을 선보이는 학회다. DAC에는 인텔, 엔비디아, AMD, 구글, 마이크로소프트, 삼성, TSMC 등 세계적인 반도체 설계 기업이 참가하며, 하버드대학교, MIT, 스탠퍼드대학교 등 세계 최고의 대학도 많이 참가한다.
세계적인 반도체 기술들 사이에서 김 교수팀이 거대 언어 모델을 위한 AI 반도체 기술로 유일하게 수상한 것은 매우 의미가 크다. 이번 수상으로 거대 언어 모델의 추론에 필요한 막대한 비용을 획기적으로 절감할 수 있는 AI 반도체 솔루션으로 세계 무대에서 인정받은 것이다.
우리 대학 김주영 교수는 “미래 거대 인공지능 연산을 위한 새로운 프로세서 ‘LPU’로 글로벌 시장을 개척하고, 빅테크 기업들의 기술력보다 우위를 선점하겠다”라며 큰 포부를 밝혔다.
2023.08.04
조회수 5640
-
고성능 조립형 SSD 시스템반도체 최초 개발
최근 인공지능을 훈련하기 위해 더 많은 데이터가 필요해지면서 그 중요성은 더욱 증가하고 있으며, 이에 데이터 센터 및 클라우드 서비스를 위한 주요 저장장치인 고성능 SSD(Solid State Drive, 반도체 기억소자를 사용하는 저장장치) 제품의 필요성이 높아지고 있다. 하지만, 고성능 SSD 제품일수록 SSD 내부의 구성요소들이 서로의 성능에 크게 영향을 미치는 상호-결합형(tightly-coupled) 구조의 한계에 부딪혀 성능을 극대화하기 어려웠다.
우리 대학 전기및전자공학부 김동준 교수 연구팀이 고성능 조립형 SSD 시스템 개발을 통해 차세대 SSD의 읽기/쓰기 성능을 비약적으로 높일 뿐 아니라 SSD 수명연장에도 적용 가능한 SSD 시스템 반도체 구조를 세계 최초로 개발했다고 15일 밝혔다.
김동준 교수 연구팀은 기존 SSD 설계가 갖는 상호-결합형 구조의 한계를 밝히고, CPU, GPU 등의 비메모리 시스템 반도체 설계에서 주로 활용되는 칩 내부에서 패킷-기반 데이터를 자유롭게 전송하는 온-칩 네트워크 기술을 바탕으로 SSD 내부에 플래시 메모리 전용 온-칩 네트워크를 구성함으로써 성능을 극대화하는 상호-분리형(de-coupled) 구조를 제안했으며, 이를 통해 SSD의 프론트-엔드 설계와 백-엔드 설계의 상호 의존도를 줄여 독립적으로 설계하고 조립 가능한 ‘조립형 SSD’를 개발했다.
※온-칩 네트워크(on-chip network): CPU/GPU등의 시스템 반도체 설계에 쓰이는 칩 내부의 요소에 대한 패킷-기반 연결구조를 말한다. 온-칩 네트워크는 고성능 시스템 반도체를 위한 필수적인 설계 요소중 하나로서 반도체칩의 규모가 증가할수록 더욱 중요해지는 특징이 있다.
김동준 교수팀이 개발한 조립형 SSD 시스템 구조는 내부 구성요소 중 SSD 컨트롤러 내부, 플래시 메모리 인터페이스를 기점으로 CPU에 가까운 부분을 프론트-엔드(front-end), 플래시 메모리에 가까운 부분을 백-엔드(back-end)로 구분하고, 백-엔드의 플래시 컨트롤러 사이 간 데이터 이동이 가능한 플래시 메모리 전용 온-칩 네트워크를 새롭게 구성해, 성능 감소를 최소화하는 상호-분리형 구조를 제안했다.
SSD를 구동하는 핵심 요소인 플래시 변환 계층의 일부 기능을 하드웨어로 가속하여 플래시 메모리가 갖는 한계를 능동적으로 극복할 수 있는 계기를 마련하였고 상호-분리형 구조는 플래시 변환 계층이 특정 플래시 메모리의 특성에 국한되지 않고, 프론트-엔드 설계와 백-엔드 설계를 독립적으로 수행하는 설계의 용이성을 가지는 점이 ‘조립형’ SSD 구조의 장점이라고 밝혔다. 이를 통해, 기존 시스템 대비 응답시간을 31배 줄일 수 있었고 SSD 불량 블록 관리기법에도 적용해 약 23%의 SSD 수명을 연장할 수 있다고 연구팀 관계자는 설명했다.
전기및전자공학부 김지호 박사과정이 제1 저자, 전기및전자공학부 정명수 교수가 공동 저자로 참여한 이번 연구는 미국 플로리다주 올랜도에서 열리는 컴퓨터 구조 분야 최우수 국제 학술대회인 `제50회 국제 컴퓨터 구조 심포지엄(50th IEEE/ACM International Symposium on Computer Architecture, ISCA 2023)'에서 6월 19일 발표될 예정이다. (논문명: Decoupled SSD: Rethinking SSD Architecture through Network-based Flash Controllers).
연구를 주도한 김동준 교수는 “이번 연구는 기존의 SSD가 가지는 구조적 한계를 규명했다는 점과 CPU와 같은 시스템 메모리 반도체 중심의 온-칩 네트워크 기술을 적용해 하드웨어가 능동적으로 필요한 일을 수행할 수 있다는 점에서 의의가 있으며 차세대 고성능 SSD 시장에 기여할 것으로 보인다”며, “상호-분리형 구조는 수명연장을 위해서도 능동적으로 동작하는 SSD 구조로써 그 가치가 성능에만 국한되지 않아 다양한 쓰임새를 가진다며”연구의 의의를 설명했다.
이번 연구는 컴퓨터 시스템 저장장치 분야의 저명한 연구자인 KAIST 정명수 교수와 컴퓨터 구조 및 인터커넥션 네트워크(Interconnection Network) 분야의 권위자인 김동준 교수, 두 세계적인 연구자의 융합연구를 통해 이루어낸 연구라는 의미가 있다고 관계자는 설명했다.
한편 이번 연구는 한국연구재단, 삼성전자, 반도체설계교육센터(IDEC), 정보통신기획평가원 차세대지능형반도체기술개발사업의 지원을 받아 수행됐다.
2023.06.15
조회수 4658
-
차세대 반도체 핵심소재로 열적으로 안정된 강유전체 소재 최초 개발
우리 대학 전기및전자공학부 전상훈 교수 연구팀이 하프니아 강유전체 소재의 물성적 이해를 바탕으로 반도체 3D 집적 공정에서도 열적으로 안정한 *강유전체 소재를 세계 최초로 개발했다고 12일 밝혔다. 현재 반도체 제조 업계에서 고집적, 고효율의 3D 메모리 소자에 대한 필요성이 꾸준하게 대두되고 있다는 점을 고려할 때, 이번 연구는 강유전체 기반의 3D 메모리 집적 공정에서 핵심 기술로 평가받을 것이라 예상된다.
*강유전체: 외부의 전기장 없이도 스스로 분극을 가지는 재료로서 외부 전기장에 의해 분극의 방향이 바뀔 수 있는 소재를 말한다. 비휘발성 특성이 있어, 기능성 소재로서 메모리 소자에 활용이 가능하지만, 고온에서 열적으로 안정성을 확보해야하는 도전 목표가 남아 있으며, 일반 유전체를 일컫는 상유전체는 외부의 전기장이 없으면 분극 특성을 유지하지 못한다는 점에서 다르다.
하프니아 강유전체 소재는 비휘발성 절연막으로, CMOS 공정 호환성, 동작 속도, 내구성 등의 우수한 물리적 특성을 바탕으로 차세대 반도체의 핵심 소재로써 활발하게 연구되고 있는 물질이다. 하지만 하프니아 소재는 필연적으로 고온에서 비휘발성 특성을 잃고 누설전류가 증가하는 한계를 가진다. 이를 억제하기 위해 세계 유수의 기관들에서 다양한 접근방법들이 보고됐지만, 3D 집적 공정 시에 발생하는 고온의 열처리 조건 (750℃ 이상, 30분)에서 강유전체 박막 내의 일반 유전체 (상유전체) 형성을 억제할 수 없었다.
전상훈 교수 연구팀은 세계 최초로 3D 집적 공정에서 요구되는 고온의 열처리 조건에서도 강유전체 박막 내의 상유전체의 형성을 완벽하게 억제하고 비휘발성 기능을 유지하며 우수한 내구성을 가지는 하프니아 강유전체 소재 및 공정 기술을 개발하는 데에 성공했다. 연구팀은 강유전체 박막 내에 이온 반지름이 작은 원소를 고용하는 도핑 기술을 활용해 강유전체 박막의 결정화 온도를 제어함과 동시에 도펀트의 농도에 따른 운동학적 에너지를 고려해 강유전체 소재의 비휘발성 및 기능성과 열적 안정성을 획기적으로 개선했다.
전상훈 교수 연구팀은 CMOS 공정을 이용해 강유전체 기반의 메모리 소자를 집적했고 고온의 열적 에너지(750℃ 이상, 30분)를 가한 후에도 우수한 강유전성이 발현되는 것을 확인했다. 또한 열적 에너지에 따른 강유전체 소재의 도메인 스위칭 동작을 전기적 측정을 통해 직관적으로 분석할 수 있는 시스템을 개발해 추후, 강유전체 소재의 열적 안정성 연구의 프레임 워크를 구축 및 제시했다. 해당 연구는 학계에서 활발하게 연구되고 있는 강유전체 소재의 기능성과 반도체 제조 업계에서 필요로 했던 강유전체 소재 기반의 3D 메모리 소자 집적 공정 사이의 간극을 줄였다는 점에서 큰 의미를 가진다.
전상훈 교수는 “이번 연구 결과는 답보상태에 있던 강유전체 소재 기반의 3D 메모리 및 회로 집적 기술 개발에 대한 돌파구가 되는 기술이 될 것으로 판단되며, 향후 고집적/고효율의 시스템 개발에 있어 핵심 역할을 할 것”이라고 설명했다.
전기및전자공학부 김기욱 박사 과정이 제1 저자로 수행한 이번 연구는 반도체 소자 및 회로 분야의 최고 권위 학회인‘IEEE 국제전자소자학회(International Electron Devices Meeting) 2022 (IEDM 2022)’에 12월 5일 발표를 마쳤다. 한편 이번 연구는 삼성전자(Samsung Electronics)와 차세대 지능형 반도체 사업단의 지능형 반도체 선도기술개발의 지원을 받아 진행됐다.
2022.12.12
조회수 6897
-
인공지능 엔진으로 영상 위변조 탐지 기술 개발
우리 연구진이 영상 내 변형 영역을 더욱 정밀하게 탐지하기 위해 영상내 색상 정보와 주파수 정보를 함께 활용하는 인공지능 엔진 기술을 학계 처음으로 개발했다. 이번 개발 기술은 기존 기술보다 정밀도와 정확도를 크게 높여 위변조 탐지 기술의 기술 유용성을 일정 수준 확보할 수 있는 기반을 제공한다는 점에서 그 의미가 크다. KAIST에서 각종 위변조 영상들을 잡아낸다는 의미를 지닌 `카이캐치(KaiCatch)' 소프트웨어는 이미지, 영상뿐만 아니라 CCTV 비디오 변형 여부도 분석할 수 있다.
우리 대학 전산학부 이흥규 교수 연구팀이 새로운 인공지능 구조와학습 방법론, 그리고 실험실 환경에서는 구하기 힘든 고급 변형 이미지 영상들을 사용해 영상 이미지 위변조 탐지 소프트웨어인 `카이캐치(KaiCatch)'의 영상 이미지 정밀도와 정확도를 크게 높일 뿐만 아니라 비디오 편집 변형도 탐지할 수 있는 카이캐치 2.1 버전을 개발했다고 13일 밝혔다.
카이캐치 소프트웨어는 `이상(異常) 유형 분석 엔진'과 `이상(異常) 영역 추정 엔진' 두 개의 인공지능 엔진으로 구성된다. `이상 유형 분석 엔진'은 블러링, 노이즈, 크기 변화, 명암 대비 변화, 모핑, 리샘플링 등을 필수 변이로 정의해 이를 탐지하며 `이상 영역 추정 엔진'은 이미지 짜깁기, 잘라 붙이기, 복사 붙이기, 복사 이동 등을 탐지한다. 이번에 새로 개발한 기술은 `이상 영역 추정 엔진'으로 기존 기술에서는 이상 영역 탐지 시 그레이 스케일(회색조)로 이상 유무를 탐지하였으나 분석 신호의 표현력이 낮고 탐지 오류가 많아 위변조 여부 판정에 어려움이 많았다. 이번에 개발된 기술은 색상 정보와 주파수 정보를 함께 활용해 정밀도(precision)와 재현율(recall)이 크게 향상되고 변형 영역을 컬러 스케일로 표현함으로써 해당 영역의 이상 유무뿐만 아니라 위변조 여부도 더욱 명확하게 판별이 가능해졌다.
연구팀은 이번 연구에서 영상 생성 시 발생하는 흔적과 압축 시 발생하는 흔적 신호들을 함께 분석하기 위해 색상 정보와 주파수 정보를 모두 활용하는 접근 방법을 학계 처음으로 제시했다. 또 이러한 방법론을 설계 구현하기 위해 주파수 정보를 하나의 분할 네트워크에서 직접 입력으로 받아들이는 방식의 ‘압축 왜곡신호 탐지 네트워크(Compression Artifact Tracing Network, 이하 CAT-Net)’을 학계 최초로 개발하고 기존 기법들과 비교해 탐지 성능이 크게 뛰어남을 입증했다. 개발한 기술은 기존에 제시된 기법들과 비교할 때 특히 원본과 변형본을 판별하는 평가 척도인 F1 점수, 평균 정밀도(average precision)에서 대단히 뛰어나 실환경 위변조 탐지 능력이 크게 강화됐다.
비디오 편집 변형의 경우도, 프레임 삭제, 추가 등에 의한 편집 변형이 흔히 CCTV 비디오 등에서 발생한다는데 착안해 이러한 비디오 편집 변형을 탐지하는 기능 역시 이번 카이캐치 2.1 버전에 탑재됐다.
이번에 카이캐치 2.1 소프트웨어를 연구 개발한 이흥규 교수는 "영상 이미지 위변조 소프트웨어인 카이캐치를 휴대폰에 탑재되는 안드로이드 앱 형태로 일반에 소개한 2021년 3월 이후 현재까지 카이캐치 앱을 통한 900여 건의 위변조 분석 의뢰와 개별적으로 60건이 넘는 정밀 위변조 분석 의뢰를 받았다. KAIST 발표 논문 수준이나 실험 결과 등을 감안할 때 위변조 분야 최고 기술로 만든 소프트웨어인데, 오탐지율이 높아 실제 탐지 정밀도가 이론치보다 매우 낮았다. 많은 경우 위변조나 변형 여부에 대한 명확한 기술 판정이 불가능했으나 이번에 개발한 카이캐치 2.1 은 CAT-Net이라는 새로운 네트워크 구조와 학습 방법론, 그리고 ‘색상 및 주파수 영역 왜곡 흔적 동시 분석’이라는 첨단 기술을 사용해 정밀도를 높여, 보다 명확한 판별이 가능하도록 개발됐다. 앞으로 영상 위변조 판단 여부가 어려운 경우가 많이 줄어들기를 기대한다”고 말했다.
이 교수는 이어 "비디오는 MP4 파일 포맷이, 그리고 영상 이미지는 JPEG 이미지들이 일반인들이 널리 사용한다는 점에서 해당 포맷을 주 개발 대상으로 삼았다. 영상 이미지의 경우 영상 편집 변형 시 영상에 남겨지는 인위적으로 발생하는 JPEG 압축 미세 신호 탐지에 주안점을 두어, 위변조 여부와 위변조 영역을 잡아내는 것에 집중했다. 비디오의 경우 특정 프레임들을 삭제하거나 삽입하는 경우, 프레임 부분 편집 후 재압축 하는 경우 등을 탐지한다. 최근 CCTV 비디오 편집 여부에 대한 분쟁이 많아 크게 도움을 줄 수 있을 것으로 기대하며 향후에도 지속적으로 연구 개발해 취약점들을 보완해 나갈 계획이다ˮ 고 덧붙였다.
현재 카이캐치 소프트웨어는 안드로이드 기반 휴대폰의 구글 플레이스토어에서 ‘카이캐치’를 검색하여 앱을 다운로드 받아 설치한 후, 영상 이미지들을 카이캐치에 업로드하면 위변조 여부를 간단하게 테스트해 볼 수 있다.
한편 이번 연구는 제1 저자로 참여한 우리 대학 전기및전자공학부 권명준 박사, 그리고 김창익 교수, 남승훈 박사, 유인재 박사 등과 공동으로 수행됐으며, `스프링거 네이처(Springer Nature)'에서 발간하는 컴퓨터 비전 분야 톱 국제저널인 `국제 컴퓨터 비전 저널(International Journal of Computer Vision, IF 7.410)'에 2022년 5월 25일 字 온라인판에 게재됐다. (논문명 : Learning JPEG Compression Artifacts for Image Manipulation Detection and Localization)
이번 연구는 한국연구재단 창의도전연구기반지원사업지원과 KAIST 창업기업인 ㈜디지탈이노텍(http://www.kaicatch.com/) 과의 산학협력 연구로 수행됐다.
2022.06.13
조회수 7675
-
스스로 그림 그리는 인공지능 반도체 칩 개발
전기및전자공학부 유회준 교수 연구팀이 생성적 적대 신경망(GAN: Generative Adversarial Network)을 저전력, 효율적으로 처리하는 인공지능(AI: Artificial Intelligent) 반도체를 개발했다.
연구팀이 개발한 인공지능 반도체는 다중-심층 신경망을 처리할 수 있고 이를 저전력의 모바일 기기에서도 학습할 수 있다. 연구팀은 이번 반도체 칩 개발을 통해 이미지 합성, 스타일 변환, 손상 이미지 복원 등의 생성형 인공지능 기술을 모바일 기기에서 구현하는 데 성공했다.
강상훈 박사과정이 1 저자로 참여한 이번 연구결과는 지난 2월 17일 3천여 명 반도체 연구자들이 미국 샌프란시스코에 모여 개최한 국제고체회로설계학회(ISSCC)에서 발표됐다. (논문명 : GANPU: A 135TFLOPS/W Multi-DNN Training Processor for GANs with Speculative Dual-Sparsity Exploitation)
기존에 많이 연구된 인공지능 기술인 분류형 모델(Discriminative Model)은 주어진 질문에 답을 하도록 학습된 인공지능 모델로 물체 인식 및 추적, 음성인식, 얼굴인식 등에 활용된다.
이와 달리 생성적 적대 신경망(GAN)은 새로운 이미지를 생성·재생성할 수 있어 이미지 스타일 변환, 영상 합성, 손상된 이미지 복원 등 광범위한 분야에 활용된다. 또한, 모바일 기기의 다양한 응용 프로그램(영상·이미지 내 사용자의 얼굴 합성)에도 사용돼 학계뿐만 아니라 산업계에서도 주목을 받고 있다.
그러나 생성적 적대 신경망은 기존의 딥러닝 네트워크와는 달리 여러 개의 심층 신경망으로 이루어진 구조로, 개별 심층 신경망마다 다른 요구 조건으로 최적화된 가속을 하는 것이 어렵다.
또한, 고해상도 이미지를 생성하기 위해 기존 심층 신경망 모델보다 수십 배 많은 연산량을 요구한다. 즉, 적대적 생성 신경망은 연산 능력이 제한적이고 사용되는 메모리가 작은 모바일 장치(스마트폰, 태블릿 등)에서는 소프트웨어만으로 구현할 수 없었다.
최근 모바일 기기에서 인공지능을 구현하기 위해 다양한 가속기 개발이 이뤄지고 있지만, 기존 연구들은 추론 단계만 지원하거나 단일-심층 신경망 학습에 한정돼 있다.
연구팀은 단일-심층 신경망뿐만 아니라 생성적 적대 신경망과 같은 다중-심층 신경망을 처리할 수 있으면서 모바일에서 학습도 가능한 인공지능 반도체 GANPU(Generative Adversarial Networks Processing Unit)를 개발해 모바일 장치의 인공지능 활용범위를 넓혔다.
연구팀이 개발한 인공지능 반도체는 서버로 데이터를 보내지 않고 모바일 장치 내에서 생성적 적대 신경망(GAN)을 스스로 학습할 수 있어 사생활을 보호를 가능케 하는 프로세서라는 점에서 그 활용도가 기대된다.
모바일 기기에서 저전력으로 다중-심층 신경망을 가속하기 위해서 다양한 핵심 기술이 필요하다. 연구팀이 개발한 GANPU에 사용된 핵심 기술 중 대표적인 기술 3가지는 ▲적응형 워크로드 할당(ASTM, 처리해야 할 워크로드*를 파악해 칩 상의 다중-심층 신경망의 연산 및 메모리 특성에 맞춰 시간·공간으로 나누어 할당함으로써 효율적으로 가속하는 방법) ▲입출력 희소성 활용 극대화(IOAS, 인공신경망 입력 데이터에서 나타나는 0뿐만 아니라 출력의 0도 예측해 연산에서 제외함으로써 추론 및 학습 과정에서의 속도와 에너지효율 극대화) ▲지수부만을 사용한 0 패턴 추측(EORS, 인공신경망 출력의 0을 예측하기 위한 알고리즘으로 인공신경망 입력과 연결 강도(weight)의 부동소수점 데이터 중 지수 부분만을 사용해 연산을 간단히 수행하는 방법)이다.
위의 기술을 사용함으로써 연구팀의 GANPU는 기존 최고 성능을 보이던 심층 신경망 학습 반도체 대비 4.8배 증가한 에너지효율을 달성했다.
연구팀은 GANPU의 활용 예시로 태블릿 카메라로 찍은 사진을 사용자가 직접 수정할 수 있는 응용 기술을 시연했다. 사진상의 얼굴에서 머리·안경·눈썹 등 17가지 특징에 대해 추가·삭제 및 수정사항을 입력하면 GANPU가 실시간으로 이를 자동으로 완성해 보여 주는 얼굴 수정 시스템을 개발했다.
2020.04.06
조회수 16687