Beta
复现 Attention Is All You Need
Implement Transformer
Transformer 彻底改变了深度学习领域。通过复现这篇开创性论文,你将实现多头自注意力、位置编码、编码器-解码器架构等核心组件。
支持的语言
pyPython
挑战进度22 阶段
预计时间
20-40 小时
难度范围
入门 - 困难
已有学习者
2,000+
技术标签
深度学习NLP注意力机制NeurIPS
你将学到什么?
- 理解自注意力机制原理
- 实现多头注意力
- 掌握位置编码
- 理解 Transformer 架构
前置要求
- 熟悉 Python 和 PyTorch/NumPy
- 了解深度学习基础
- 了解矩阵运算
学习路径
0 个阶段详细阶段信息即将发布,敬请期待。
AI 演进导读
我们的 AI 引擎会将源码的 Git 演进历史可视化,带你从「第一行核心代码」开始, 逐步理解每个设计决策背后的思考过程。不只是知道「是什么」,更要理解「为什么」。