Beta

复现 Attention Is All You Need

Implement Transformer

Transformer 彻底改变了深度学习领域。通过复现这篇开创性论文,你将实现多头自注意力、位置编码、编码器-解码器架构等核心组件。

支持的语言

pyPython
挑战进度22 阶段

预计时间

20-40 小时

难度范围

入门 - 困难

已有学习者

2,000+

技术标签

深度学习NLP注意力机制NeurIPS

你将学到什么?

  • 理解自注意力机制原理
  • 实现多头注意力
  • 掌握位置编码
  • 理解 Transformer 架构

前置要求

  • 熟悉 Python 和 PyTorch/NumPy
  • 了解深度学习基础
  • 了解矩阵运算

学习路径

0 个阶段

详细阶段信息即将发布,敬请期待。

AI 演进导读

我们的 AI 引擎会将源码的 Git 演进历史可视化,带你从「第一行核心代码」开始, 逐步理解每个设计决策背后的思考过程。不只是知道「是什么」,更要理解「为什么」。