Techne
Venture
Anthropocene
Blog
Products
Subscribe
Search
Toggle Theme
EN
Chat
注意力机制 (Attention)
AI
LLM
模型架构
注意力机制 (Attention)
订阅后可继续阅读剩余内容
立即订阅
Transformer 架构
Previous Page
Tokenization (分词)
Next Page
On this page
为什么需要 Attention?
核心原理:Scaled Dot-Product Attention
多头注意力 (Multi-Head Attention)
Self-Attention vs Cross-Attention
意义