Attention
# Tag:
- Source/KU_ML2
Attention
더 적합한 output을 만들어 내기 위해 input 중 가장 관련 있는 부분에 attention할 수 있는 별도의 weights를 통한 computational graph를 추가해 output에 반영하는 기법.
기계번역에서 대응되는 단어에 attention을 줌으로써 더 적합한 output을 만들도록 하는 것이 예시가 될 수 있다.
Attention
# Tag:
기계번역에서 대응되는 단어에 attention을 줌으로써 더 적합한 output을 만들도록 하는 것이 예시가 될 수 있다.
이 페이지는 리디주식회사에서 제공한 리디바탕 글꼴이 사용되어 있습니다. 리디바탕의 저작권은 리디주식회사가 소유하고 있습니다.
This Font Software is licensed under the SIL Open Font License, Version 1.1.
Copyright 2025. yiksan0315 All rights reserved.