하수하따 록기장

  • 홈
  • 태그
  • 방명록

pretraining 1

[CS224N] #9. Pretraining

🌟  Motivating model pretraining from word embeddings  🖇️ Where we were: pretrained word embeddings우리는 지금까지 사전학습된 워드 임베딩을 사용했다. 하지만 워드 임베딩은 문맥을 고려하지 않는다. 따라서 문맥적 의미는 task를 학습하면서 같이 학습할 수 있는데, 모든 문맥적 의미를 학습할 수 있을만큼의 많은 훈련 데이터를 필요로 하게 된다. 또한 모델의 파라미터들은 랜덤 초기화된다. 🖇️ Where we're going: pretraining whole models그래서 현대 NLP에서는 전체 모델을 사전학습하는 방식을 사용한다. 이렇게 하면 모델의 파라미터들이 사전학습을 통해 초기화된다. 사전 학습은 입력의 일부분을 가..

자연어처리 2024.05.24
이전
1
다음
더보기
프로필사진

하수하따를 실천하는 블로그!

  • 분류 전체보기 (97)
    • 이산수학 (10)
    • 컴퓨터구조 (7)
    • 운영체제 (8)
    • 자연어처리 (12)
    • 데이터베이스 (2)
    • 컴퓨터네트워크 (9)
    • 엣지컴퓨팅 (10)
    • 멀티모달인공지능 (2)
    • Flutter (6)
    • Boj (15)
    • 알고리즘 (9)
    • 응용통계학 (2)
    • 키보드 제작기 (0)

Tag

OS, C++, 운영체제, 컴퓨터구조, cs224n, BOJ, 이산수학, 플러터, 4차산업혁명시대의이산수학, 연습문제풀이, 백준, 그리디, flutter, 자연어처리, 정렬알고리즘, 김대수, 알고리즘, 유클리드알고리즘, 유클리드호제법, OSTEP,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바