728x90 반응형 SMALL Attention Module1 [Image Segmentation] 주목 메커니즘 (Attention Module) 주목 메커니즘 (Attention Module) 주목 메커니즘 (Attention Mechanism)은 중요도가 높은 특정 벡터에 더욱 집중하도록 도와주는 기법으로 RNN의 seq2seq에 처음 도입되었다. CNN에서 주목 기법은 주로 Visual Question Answering 또는 Image Captioning처럼 multi-modal간의 관계를 이용한 feature selection에 많이 사용되었다. 가장 대표적인 논문인 “Show, Attend and Tell: Neural Image Caption Generation with Visual Attention” 에서는 아래의 그림과 같이 어떤 부분을 보고 문장을 생성했는지 효과적으로 시각화했는지 보여주었다. 주목 메커니즘은 장기 의존성 문제를 효.. 2022. 12. 15. 이전 1 다음 728x90 반응형 LIST