Computer Science/AI 2

LLM 학습 시 내부 학습 원리

LLM 학습의 본질: 확률 분포 예측주어진 입력(문맥)에서 다음 단어(토큰)가 나올 확률 분포를 예측하는 모델ex)Input: ENFP 스타일로 바꿔줘: 나도 좋아해.Output: 헐~ 나도 진짜 좋아해~!모델은 이 Input 다음에 등장할 문장으로 "헐~"이 등장할 확률이 가장 높아지도록 조정함.  학습 과정 요약Step 1. 학습 데이터 준비 "ISTP 스타일로 바꿔줘: 나도 그거 진짜 좋아하는데! "-> "나도 좋아해" Step 2. 모델 입력 형태로 인코딩 (tokenization) 텍스트는 모두 숫자 토큰으로 바뀌고, 각 토큰마다 다음 토큰의 확률을 예측하도록 함.ex) ISTP -> 1234, 스타일 ->  0812, ... input 처리: "ISTP 스타일로 변경: 나도 그거 진짜 좋아하는..

Computer Science/AI 2025.03.28

PERT와 LoRA란 무엇인가

파인튜닝의 새로운 대세: PEFT와 LoRA란?요즘 AI 모델 파인튜닝을 이야기할 때 빠지지 않는 키워드가 있습니다.바로 PEFT와 LoRA입니다.💡 "기존 대형 모델을 빠르고 가볍게, 그리고 효율적으로 파인튜닝할 수 없을까?"이 질문에 대한 해답이 바로 PEFT (Parameter-Efficient Fine-Tuning), 그리고 그 중 하나인 **LoRA (Low-Rank Adaptation)**입니다.1. PEFT란 무엇인가요?PEFT = Parameter-Efficient Fine-Tuning(파라미터 효율적 파인튜닝) PEFT는 대형 언어 모델(LLM)의 전체 파라미터를 학습하지 않고,일부 파라미터 또는 추가 모듈만 학습함으로써 훨씬 효율적으로 파인튜닝하는 기법입니다.💡 왜 PEFT가 필요한..

Computer Science/AI 2025.03.24