[IBK 기업은행] Model Tuning 방법론 및 최적화 실습

점점 모델 크기가 커져가면서 모델 학습이나 추론에 많은 자원과 시간이 필요합니다. 좋은 성능을 보이는 거대 모델을 누구나 쉽게 사용하기 위해 경량화 기법이 연구 분야로 부각되고 있습니다.

본 강의에서는 Pruning, Knowledge Distillation, Quantization, PEFT 등의 기법을 다루며 거대 모델 자체에 대한 경량화 기법을 배우고, 데이터 병렬화, 모델 병렬화 등의 분산 학습 전략을 이해할 수 있습니다. 이를 바탕으로 학습 목적, 환경에 따른 적절한 경량화를 실무에 적용할 수 있습니다.

#Model Tuning #Optimization #Pruning #Distillation #Quantization
Empty space, drag to resize
Write your awesome label here.

Advanced

Difficulty Level

7H

Estimated Learning Time

Korean

Language

Certificate of Completion

강의 수강을 통해 수료증을 발급받을 수 있습니다.
Empty space, drag to resize
Write your awesome label here.

Created by

조현수

이화여자대학교 조교수 | 인공지능 전공, AGI LAB
주로 모델 최적화와 경량화 분야에서 다양한 프로젝트를 수행해왔으며 현재는 온라인 강의와 기업 대상 맞춤형 교육을 통해 모델 압축과 효율적 학습 기법을 전하고 있습니다.

본 강의를 통해 복잡하고 부담스럽게 느껴졌던 모델 최적화 기법(pruning, Knowledge Distillation, quantization, distributed training)을 실제 업무에 적용할 수 있는 실질적 역량으로 전환해 보시기 바랍니다.