- Seq2Seq Decoder의 출력층: 은닉 상태로부터 실제 단어를 출력하기까지 TOP NEW
- Seq2Seq: 인코더와 디코더로 이루어진 시퀀스 변환의 기본 구조 TOP NEW
- GRU(Gated Recurrent Unit): 더 가벼운 구조로 LSTM을 대체할 수 있을까? TOP NEW
- LSTM(Long Short-Term Memory): Gate를 도입해 RNN의 한계를 완화한 모델 TOP NEW
- 순환신경망(Recurrent Neural Network, RNN) TOP NEW
- ANN의 학습 TOP NEW
- ANN의 발전과 구조 TOP NEW