-
6-2. attentionpractice_인공지능,머신러닝 2024. 10. 22. 13:31
attention 은 rnn 으로 sequence 2 sequence에서 bottle neck problem(시간관계없고, 어떤문장이든 길어지던간에 고정길이 ht에 정장한다.) 을 해결하기 위해 나옴
data의 어떤 부분에 집중 attention해서 출력을 계산해야할지 자동으로 학습하는기법
장점: 중요한부분에 집중해서 계산(마지막 ht만 본게 아니라 여러 h를 보면서 그중 어디 집중할지 보니,
정보손실이 없다)
bottle nectk problem: final ht에 너무 많은 정보를 넣어서 병목현상문제 발생
해결점 -> attention mechanisam
입력문제를 다 보지 않고 집중해서 몇몇만 봄
attention -> 입력값, 출력값을 잘 나열 -> alignment로 부름 (without supervision)
hn x d1 -> softmax -> 출력값 attention값들(distribution) (h1,h2,h3,h4 x d1-> 내적한후 softmax 한값이 a1,a2, a3, a4)
입력문장 h1,h2,h3,h4에 문장내에 어떤부분을 가중치를 많이 줄건가 -> 가중합 a를 곱함
concatenate
가중합 = z백터
여기에 d1벡터를 concatnate -> x벡터
여기에 원하는 y^ 을 구하기 위해 w를 곱한다.
위 과정을 반복 -> attention
attention - 집중하는 부분 - 하얀색
화면 기록 2024-10-22 오전 10.57.24.mov3.20MB'practice_인공지능,머신러닝' 카테고리의 다른 글
20.activation, relu, sigmoid (0) 2024.10.24 6-1. Rnn (0) 2024.10.22 선형회귀, 분류 차이점 (1) 2024.10.19 18.하노이의 탑 (0) 2024.10.17 RNN and Attention (0) 2024.10.16