Projects
현재 수행 과제/자문
거대 학습 모델 초고속 처리를 위한 고효율 AI 컴퓨팅SW 핵심 기술개발 (정보통신기획평가원 과제, 참여 2022.4~2025.12)
언어 모델을 저사양의 GPU 클러스터에서 효율적으로 학습할 수 있도록 하는 시스템 최적화 기술 연구.
초거대규모 자연어 처리 모델의 분산 학습 최적화 기술 개발 (KT 산학 과제, 책임 2021.8~2023.7)
대규모 언어 모델의 분산 학습의 성능을 향상시키는 시스템적인 최적화 기술에 대한 연구.
인공지능 학습/추론 효율성 향상을 위한 서버용 SW 프레임워크 개발 (정보통신기획평가원 과제, 참여 2021.4~2024.12)
GPU/NPU 클러스터에서 분산 학습을 최적화 하는 연구.
하이퍼-캄포저블 데이터센터를 위한 차세대 컴퓨팅 기술 개발 (ITRC, 참여 2021.7~2028.12)
데이터 센터에서 Multi-Tenancy 및 Elasticity를 지원하는 딥러닝 학습 및 추론 시스템의 연구.
(엑소브레인-2세부) WiseKB: 빅데이터 이해 기반 자가학습형 지식베이스 및 추론 기술 개발 (정보통신기획평가원 과제, 참여 2018.1~2022.12)
BERT, GPT-3 등의 Transformer 기반 대용량 언어모델의 추론 성능을 개선하는 연구.
BK 과제 및 AI대학원 과제 참여
지난 수행 과제
Giant Model 기계 학습 동향 및 이를 위한 컴퓨팅 연구 (ETRI 위탁 과제, 2021.4~2021.12)
BERT, GPT-3 등의 언어모델의 Workload를 분석하는 연구.
심볼릭 실행을 통한 딥러닝 모델의 취약점 자동 발견 및 분석에 관한 연구 (연구재단 과제, 책임 2018.11~2021.10)
심볼릭 실행 등 소프트웨어 테스팅 기술을 응용하여 딥러닝 모델의 취약점을 발견하고 분석하는 연구.
자율주행을 위한 딥러닝 모델의 Jetson AGX 시스템에서의 추론 성능 개선 (MultiplEYEs 자문, 2021.7~2021.9)
Jetson AGX에서 딥러닝 모델 (OmniMVS)의 추론 속도를 향상시키는 기술.
Convergence-Aware Neural Network Training (삼성리서치 산학과제, 책임 2019.5~2020.4)
파라미터의 수렴도를 고려하여 학습의 성능 (Throughput) 을 높이는 기술에 대한 연구.
연구 결과가 DAC 학회에 논문으로 발표/출판 되었음 (논문링크)
대용량 기계학습을 위한 고수준의 프로그래밍 언어 및 분산 시스템에 관한 연구 (연구재단 과제, 책임 2016.6~2019.5)
딥러닝 프레임워크인 TensorFlow와 PyTorch의 (분산) 학습 성능을 분석하고 이를 최적화 하는 연구.