하수하따 록기장

  • 홈
  • 태그
  • 방명록

2024/06/09 1

[자연어처리] BERT

강필성 교수님 강의자료 지난 글에서 우리는 Pretraining 즉 사전학습에 대해서 알아보았다. 사전학습 아키텍처로 Encoder, Decoder, Encoder-Decoder 이렇게 3가지가 있었다. 이 글에서는 Encoder 방식으로 학습된 BERT에 대해서 알아보고자 한다. p. 2BERT(Bidirectional Encoder Representations from Transformer)는 양방향 Encoder로 Pretrained된 representations 모델이다.BERT는 transformer의 Encoder구조만을 사용하므로 양방향(Bidirectional) 모델이다. 따라서 전체 문맥을 이해하고 좋은 Representaion을 생성하기에 적합하다. 사전학습된 Bert를 finetuni..

자연어처리 2024.06.09
이전
1
다음
더보기
프로필사진

하수하따를 실천하는 블로그!

  • 분류 전체보기 (97)
    • 이산수학 (10)
    • 컴퓨터구조 (7)
    • 운영체제 (8)
    • 자연어처리 (12)
    • 데이터베이스 (2)
    • 컴퓨터네트워크 (9)
    • 엣지컴퓨팅 (10)
    • 멀티모달인공지능 (2)
    • Flutter (6)
    • Boj (15)
    • 알고리즘 (9)
    • 응용통계학 (2)
    • 키보드 제작기 (0)

Tag

그리디, C++, 이산수학, OSTEP, flutter, 4차산업혁명시대의이산수학, 컴퓨터구조, 유클리드알고리즘, 연습문제풀이, 백준, 운영체제, 정렬알고리즘, 김대수, OS, BOJ, 알고리즘, 자연어처리, 유클리드호제법, cs224n, 플러터,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2024/06   »
일 월 화 수 목 금 토
1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바