yong.dev.log

  • 홈
  • Computer Science
  • 태그
  • 방명록

AI 1

LLM 학습 시 내부 학습 원리

LLM 학습의 본질: 확률 분포 예측주어진 입력(문맥)에서 다음 단어(토큰)가 나올 확률 분포를 예측하는 모델ex)Input: ENFP 스타일로 바꿔줘: 나도 좋아해.Output: 헐~ 나도 진짜 좋아해~!모델은 이 Input 다음에 등장할 문장으로 "헐~"이 등장할 확률이 가장 높아지도록 조정함.  학습 과정 요약Step 1. 학습 데이터 준비 "ISTP 스타일로 바꿔줘: 나도 그거 진짜 좋아하는데! "-> "나도 좋아해" Step 2. 모델 입력 형태로 인코딩 (tokenization) 텍스트는 모두 숫자 토큰으로 바뀌고, 각 토큰마다 다음 토큰의 확률을 예측하도록 함.ex) ISTP -> 1234, 스타일 ->  0812, ... input 처리: "ISTP 스타일로 변경: 나도 그거 진짜 좋아하는..

Computer Science/AI 2025.03.28
이전
1
다음
더보기
프로필사진

yong.dev.log

용우의 개발 일기장

  • 분류 전체보기 (63)
    • Computer Science (19)
      • 알고리즘 (9)
      • 일반 (1)
      • Java (0)
      • 운영체제 (2)
      • 네트워크 (3)
      • AI (2)
      • 디자인 패턴 (2)
    • Programming (1)
      • Git (1)
      • GitHub (0)
    • Web (17)
      • Web Application (1)
      • Spring, SpringBoot (8)
      • Spring Security (8)
    • Security (1)
      • Web (1)
    • Game (1)
      • Unity (1)
    • Project (22)
      • Boilerplate (21)
      • MBTI Translator (0)
      • Duri (1)
    • 기타 (0)
      • 우테코 7기 (0)

Tag

우테코, 백준, Mockito, 다중 토큰, Breadth-First Search, spring security, ACCESS, 알고리즘, jwt, BFS, Algorithm, pagination, QueryDSL, 너비 우선 탐색, CORS, OAuth2.0, 소셜 로그인, git, Spring Boot, Refresh,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/08   »
일 월 화 수 목 금 토
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바