最新公告
  • 欢迎您光临就爱看资源站,各种优质it资源共享下载,精品资源,持续更新 咨询Q群 174856490
  • 文章介绍
  • 课程目录:

    ├──1 课程介绍.mp4 73.46M
    ├──2 注意力机制_ev.mp4 48.36M
    ├──3 自注意力机制.mp4 30.32M
    ├──4 Transformer的架构概述_ev.mp4 23.77M
    ├──5 Transformer Encoder的多头注意力.mp4 53.85M
    ├──6 Transformer Encoder的位置编码.mp4 36.50M
    ├──7 Transformer 残差链接、LayerNorm、FFN.mp4 20.85M
    ├──8 Transformer Decoder.mp4 21.44M
    ├──9 Transformer 训练及性能.mp4 35.89M
    ├──10 Transformer机器翻译工作流程_ev.mp4 9.60M
    ├──11 Transformer的Encoder代码解读.mp4 52.75M
    ├──12 Transformer的Decoder代码解读.mp4 75.94M
    ├──13 Transformer的超参设置代码解读.mp4 47.24M
    ├──14 Transformer的训练示例(人为随机数据)代码解读.mp4 27.52M
    ├──15 Transformer的训练示例(德语-英语机器翻译)代码解.mp4 58.57M
    ├──16 结合中文注释代码深入解读1.mp4 54.96M
    ├──17 结合中文注释代码深入解读2.mp4 66.99M
    ├──18 LLM推理方式.mp4 29.57M
    ├──19 文本生成模式.mp4 15.82M
    ├──20 文本生成策略.mp4 60.22M
    ├──21 Token和分词器.mp4 19.30M
    ├──22 文本生成过程.mp4 28.84M
    ├──23 prefill和解码阶段_ev.mp4 8.58M
    ├──24 llama3文本生成过程_ev.mp4 5.56M
    ├──25 文本生成时的QKV含义.mp4 36.33M
    ├──26 大模型开发阶段划分.mp4 37.62M
    ├──27 SFT微调.mp4 26.06M
    ├──28 微调方法(全参、冻结参数、LoRA、QLoRA).mp4 33.39M
    ├──29 LoRA微调.mp4 49.71M
    ├──30 QLoRA微调.mp4 33.59M
    ├──31 llama模型进化史.mp4 18.88M
    ├──32 llama3模型类型_ev.mp4 7.79M
    ├──33 llama大模型生态.mp4 24.92M
    ├──34 llama3模型架构_ev.mp4 7.70M
    ├──35 RMSNorm归一化_ev.mp4 8.40M
    ├──36 SwiGLU激活函数.mp4 20.48M
    ├──37 RoPE旋转位置编码.mp4 70.27M
    ├──38 GQA分组查询注意力_ev.mp4 7.71M
    ├──39 KVCache.mp4 56.89M
    ├──40 各文件功能_ev.mp4 5.69M
    ├──41 completion和chat应用脚本代码解析.mp4 68.41M
    ├──42 generation.py代码解析.mp4 81.34M
    ├──43 model.py代码解析.mp4 47.21M
    ├──44 tokenizer.py代码解析.mp4 82.68M
    ├──45 RMSNorm代码解析.mp4 57.61M
    ├──46 SwiGLU代码解析.mp4 6.72M
    ├──47 GQA代码解析.mp4 24.53M
    ├──48 RoPE代码解析.mp4 45.06M
    ├──49 KVCache代码解析_ev.mp4 11.40M
    ├──50 阿里云实例创建_ev.mp4 10.98M
    ├──51 ollama介绍.mp4 2.91M
    ├──52 ollama安装.mp4 28.89M
    ├──53 llama3推理.mp4 59.85M
    ├──54 vLLM部署llama3.mp4 55.12M
    ├──55 llama_factory介绍.mp4 10.10M
    ├──56 llama_factory安装及llama3模型下载.mp4 19.23M
    ├──57 LoRA微调训练.mp4 80.50M
    ├──58 llama3中文增强大模型推理_ev.mp4 10.66M
    ├──59 llama3中文增强大模型评估.mp4 30.58M
    ├──60 lora文件合并.mp4 10.15M
    ├──61 数据集准备_ev.mp4 9.75M
    ├──62 lora 微调.mp4 33.78M
    ├──63 llama3医疗问答大模型推理_ev.mp4 12.94M
    ├──64 qlora微调 _ev.mp4 14.90M
    └──65 qlora微调的医疗问答大模型推理.mp4 10.38M
    └──资料
    | ├──transformer-pytorch-01.zip 671.21kb
    | ├──课件-llama3代码解析-01.pdf 2.53M
    | ├──课件-llama3原理-01.pdf 4.35M
    | ├──课件-llama_factory微调llama3项目实战-阿里云-01.pdf 616.81kb
    | ├──课件-llama大模型进化和生态-01.pdf 3.22M
    | ├──课件-ollama部署llama3-阿里云-01.pdf 846.12kb
    | ├──课件-vLLM部署llama3-阿里云-01.pdf 148.11kb
    | ├──课件-大模型微调原理-01.pdf 2.02M
    | ├──课件-大模型文本生成-01.pdf 2.84M
    | ├──原理1-注意力机制-01.pdf 2.35M
    | └──原理2-Transformer-01.pdf 5.23M

    就爱看资源站是一个优秀的资源整合平台,海量资料共享学习
    就爱看 » 51CTO-大模型原理代码精讲与部署微调实战2024

    常见问题FAQ

    视频课程的格式是什么
    视频不加密,网盘在线学习,课程免费更新,持续更新
    怎么发货?
    自动发货,提供百度云链接和提取码【如失效点击网站右侧联系客服】】
    有些资源没更新完结怎么办
    本站资源包更新至完结,后续可以点击链接获取
    有问题不懂想咨询怎么办
    咨询邮箱:2582178968@qq.com Q群:790861894
    • 456会员总数(位)
    • 2550资源总数(个)
    • 16本周发布(个)
    • 6 今日发布(个)
    • 1826稳定运行(天)

    提供最优质的资源集合

    加入我们
    升级SVIP尊享更多特权立即升级