相关题库

咨询

其他联系方式

所属系列课程

评价

Transformer自注意机制精讲,日月光华老师,更新提示:2024.7.15更新3节,主要内容涉及VIT(vision transformer)论文简介。 更新提示:2024.6.7更新4节,主要内容涉及T5模型与SQUAD问答任务。 更新提示:2024年6月6更新 4 节,主要内容涉及命名实体识别示例。目前课程72节。 更新提示:2024年5月28日更新 6 节,主要内容涉及重录IMDB数据集的加载、使用预训练的GPT-2模型实现命名实体识别的微调前2节。 更新提示:2024年5月20日更新 6 节,主要内容涉及transformers库预训练模型的简单使用、NLG任务相关论文GPT 1 和 GPT 2 模型简介。 更新提示:2024年5月13日更新Hugging Face与大模型一章前4节,主要内容涉及datasets数据集加载与处理、预训练大模型的选择。 精讲 Transformer 编码器结构和原理、位置编码、自定义编写Transformer编码器、BERT模型简介及微调应用、Transformer解码器中带掩码的自注意力层和交互自注意力层等。 课程仍在连载中,连载计划如下: 5月12日 hugging face 模型微调 5月19日 阅读理解-问题与答案 5月26日 Vision Transformer 6月3日 DETR 适用人群:关注Transformer自注意机制的 关注BERT模型和文本问题处理的 关注Hugging Face处理文本任务的