파인튜닝의 새로운 대세: PEFT와 LoRA란?요즘 AI 모델 파인튜닝을 이야기할 때 빠지지 않는 키워드가 있습니다.바로 PEFT와 LoRA입니다.💡 "기존 대형 모델을 빠르고 가볍게, 그리고 효율적으로 파인튜닝할 수 없을까?"이 질문에 대한 해답이 바로 PEFT (Parameter-Efficient Fine-Tuning), 그리고 그 중 하나인 **LoRA (Low-Rank Adaptation)**입니다.1. PEFT란 무엇인가요?PEFT = Parameter-Efficient Fine-Tuning(파라미터 효율적 파인튜닝) PEFT는 대형 언어 모델(LLM)의 전체 파라미터를 학습하지 않고,일부 파라미터 또는 추가 모듈만 학습함으로써 훨씬 효율적으로 파인튜닝하는 기법입니다.💡 왜 PEFT가 필요한..