作者: 连博AI说
作者简介: 北京大学数院计算数学博士,前百度凤巢主任架构师
描述: 在本期视频中,我们详细介绍了张量下的链式法则,并基于此对Transformer在矩阵形式下的求导进行了全面推演。这将有助于大家更好地理解Flash Attention等Transformer加速技术。欢迎观看!
上传者: 蘅芜仙菌
上传者: 吴恩达-AI大模型
上传者: 红橙在等你
上传者: 同济子豪兄
上传者: DASOU讲AI
上传者: 吴恩达讲大模型
上传者: Eve的科学频道
上传者: 西湖大学WindyLab
上传者: 王木头学科学
上传者: 望舒同学
上传者: 动画讲编程
上传者: PLOG-棱
上传者: 懂点AI事儿
上传者: 连博AI说
上传者: KnowingAI知智
上传者: 大红豆小薏米
上传者: 风中摇曳的小萝卜
上传者: 吴恩达深度学习
上传者: 大模型微调
上传者: AI蒸馏
上传者: 吴恩达大模型
上传者: deep_thoughts
上传者: fhgxb
上传者: LLM张老师
上传者: 3Blue1Brown
上传者: chaofa用代码打点酱油
上传者: 陈qt师兄啊
上传者: 跟李沐学AI
上传者: 良睦路程序员
上传者: 科研水神大队长
上传者: AI论文小小编
上传者: 学车辆的算法工程师
上传者: 眼镜搞不懂AI
上传者: 旧城-卡卡
上传者: 橘凉栀