yong.dev.log

  • 홈
  • Computer Science
  • 태그
  • 방명록

LoRa 1

PERT와 LoRA란 무엇인가

파인튜닝의 새로운 대세: PEFT와 LoRA란?요즘 AI 모델 파인튜닝을 이야기할 때 빠지지 않는 키워드가 있습니다.바로 PEFT와 LoRA입니다.💡 "기존 대형 모델을 빠르고 가볍게, 그리고 효율적으로 파인튜닝할 수 없을까?"이 질문에 대한 해답이 바로 PEFT (Parameter-Efficient Fine-Tuning), 그리고 그 중 하나인 **LoRA (Low-Rank Adaptation)**입니다.1. PEFT란 무엇인가요?PEFT = Parameter-Efficient Fine-Tuning(파라미터 효율적 파인튜닝) PEFT는 대형 언어 모델(LLM)의 전체 파라미터를 학습하지 않고,일부 파라미터 또는 추가 모듈만 학습함으로써 훨씬 효율적으로 파인튜닝하는 기법입니다.💡 왜 PEFT가 필요한..

Computer Science/AI 2025.03.24
이전
1
다음
더보기
프로필사진

yong.dev.log

용우의 개발 일기장

  • 분류 전체보기 (63)
    • Computer Science (19)
      • 알고리즘 (9)
      • 일반 (1)
      • Java (0)
      • 운영체제 (2)
      • 네트워크 (3)
      • AI (2)
      • 디자인 패턴 (2)
    • Programming (1)
      • Git (1)
      • GitHub (0)
    • Web (17)
      • Web Application (1)
      • Spring, SpringBoot (8)
      • Spring Security (8)
    • Security (1)
      • Web (1)
    • Game (1)
      • Unity (1)
    • Project (22)
      • Boilerplate (21)
      • MBTI Translator (0)
      • Duri (1)
    • 기타 (0)
      • 우테코 7기 (0)

Tag

소셜 로그인, Spring Boot, Algorithm, jwt, pagination, CORS, OAuth2.0, BFS, Breadth-First Search, Refresh, 백준, 너비 우선 탐색, 알고리즘, 우테코, QueryDSL, ACCESS, git, spring security, Mockito, 다중 토큰,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/08   »
일 월 화 수 목 금 토
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바