하수하따 록기장

  • 홈
  • 태그
  • 방명록

Transformer 1

[자연어처리, CS224N] Lec8 : Self-Attention and Transformer

두둥 .. 진짜 transformer 시작! 내일이 시험인데 블공이 맞나..? 싶지만 일단 하겠음목차1. From recurrence(RNN) to attention based NLP models - RNN에서 attention 기반의 NLP 모델까지2. The Transformer model3. Great results with Transformers4. Drawbacks and variants of Transformers우리는 지난 시간에 Multi-layer RNN for machine translation에 대해 배웠다. 하지만 Source Sentence의 마지막 인코딩만을 디코더의 입력으로 넣어준다는 점에서 문제가 생긴다. Source sentence의 마지막 인코딩은 Source Senten..

자연어처리 2024.04.30
이전
1
다음
더보기
프로필사진

하수하따를 실천하는 블로그!

  • 분류 전체보기 (103)
    • 이산수학 (10)
    • 컴퓨터구조 (7)
    • 운영체제 (8)
    • 자연어처리 (12)
    • 데이터베이스 (2)
    • 컴퓨터네트워크 (9)
    • 엣지컴퓨팅 (10)
    • 멀티모달인공지능 (3)
    • Flutter (6)
    • Boj (15)
    • 알고리즘 (9)
    • 응용통계학 (2)
    • 키보드 제작기 (0)

Tag

C++, 김대수, 백준, 정렬알고리즘, 이산수학, 자연어처리, 연습문제풀이, flutter, OS, 유클리드호제법, 플러터, 운영체제, 유클리드알고리즘, BOJ, 4차산업혁명시대의이산수학, OSTEP, cs224n, 그리디, 컴퓨터구조, 알고리즘,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바