欢迎加入大模型课程!本课程将带你深入了解什么是大模型,并帮助你掌握应用这些强大模型的技能。无论你是对深度学习领域感兴趣,还是想在实际项目中应用大模型,本课程都将为你提供宝贵的知识和实践经验。
大模型是指具有巨大参数量和复杂结构的深度学习模型。这些模型在处理大规模数据集和复杂任务时表现出色,如图像识别、自然语言处理、语音识别等。大模型的兴起引发了深度学习领域的巨大变革,并在许多领域取得了突破性的成果。
在本课程中,你将学习大模型的基本概念和原理。我们将详细介绍LLM(Large Language Models)的基础理论、发展历程、常用的大模型和不断发展的Prompt和In-context learning技术。随着课程的深入,我们将进行大模型实战应用。你将学习到如何部署Stable Diffusion和ChatGLM2-6B等备受关注的大模型到算能自研的最新一代深度学习处理器BM1684X。SOPHON BM1684X, 是算能面向深度学习领域推出的第四代张量处理器,算力可达32TOPS,支持32路高清硬解码和12路高清硬编码,可用于深度学习、机器视觉、高性能计算等环境。
无论你是想在学术界深入研究大模型,还是在工业界应用这些技术,本课程都将为你提供坚实的基础和实践能力。准备好迎接大模型的挑战了吗?让我们一起探索这个令人着迷的领域吧!
本课程介绍了华山派的硬件电路设计以及外设资源使用操作方法,并且提供了深度学习的硬件加速接口使用教程和一些基础实例
华山派 -- CV1812H开发板,是算能和生态伙伴硬件十万个为什么联合推出的开源生态开发板,为广大使用者提供基于RISC-V的开源开发环境,以视觉场景开发为核心实现功能,处理器更集成第二代全自研深度学习张量处理器(TPU),全自研智能图像处理引擎(Smart ISP),硬件级别高度安全资料保护架构(Security),语音处理引擎及H.264/265智能编解码技术,同时还有配套的多媒体软件平台和IVE硬件加速接口,使部署与执行更加高效、快速、便捷。主流的深度学习框架,比如Caffe,Pytorch,ONNX ,MXNet和TensorFlow(Lite) 框架的主流网络可以轻松的移植到平台上。
课程特点
课程内容
华山派开发板配套开源代码链接:https://github.com/sophgo/sophpi-huashan.git
TPU-MLIR是专注于处理器的TPU编译器,该编译器工程提供了一套完整的工具链,可以实现将多种不同的深度学习框架(PyTorch、ONNX、TFLite和Caffe)下预训练的神经网络模型,通过编译和转换实现转化为可以在算能TPU上高效运算的模型文件bmodel/cvimodel,通过量化为不同精度的bmodel/cvimodel实现在算能硬件TPU上的加速和模型性能的优化,从而实现将各种目标检测、语义分割和目标跟踪等相关模型部署到底层硬件上进行加速。
本节课程主要分为三大部分:
一、实现本地开发环境的搭建和配置,并完成相关SOPHON SDK、TPU-MLIR编译器核心理论及相关加速接口的学习。
二、完成ONNX、TFLite、Caffe和PyTorch四种深度学习模型样例的转换与量化,以及其他深度学习框架转换中间格式ONNX的方法。
三、带领大家进行实战化移植四个实例算法(检测、识别和跟踪等方向算法)进行编译转换和量化,最终部署到算能1684x张量处理器的TPU处理器上进行性能测试。
本课程将通过实战演示作为驱动,带领大家全面、直观地了解TPU-MLIR编译器的使用,实现快速上手转换和量化不同深度学习模型算法并能够在移植到算能处理器TPU上进行部署测试。目前TPU-MLIR的使用已被应用在算能研发的最新一代深度学习处理器BM168X及CV18XX上,搭配上处理器本身的高性能ARM内核以及相应的SDK,能够实现深度学习算法的快速部署。
本课程的学习在模型移植部署上具备以下优势:
1、支持多种深度学习框架
目前直接支持的框架有PyTorch、ONNX、TFLite和Caffe。其他框架的模型需要转换成ONNX模型。如何将其他深度学习架构的网络模型转换成ONNX, 可以参考ONNX官网: https://github.com/onnx/tutorials。
2、易操作
通过阅读开发手册及相关部署案例,了解TPU-MLIR的原理和操作步骤,实现模型从零到部署,掌握相关Linux操作命令和模型编译量化命令即可上手实操。
3、量化部署步骤简便
模型转换需要在算能提供的docker内执行, 主要分两步, 一是通过 model_transform.py 将原始模型 转换成mlir文件, 二是通过 model_deploy.py 将mlir文件转换成bmodel格式。bmodel便是可以在算能TPU硬件上运行加速的模型文件格式。
4、适配多架构多模式硬件
量化好的bmodel模型可以运行在PCIe和SOC两种模式上的TPU上进行性能测试
5、资料手册齐全
丰富的教学视频,包含详细的理论讲解与实战操作,充分的实操指导和规范化的代码脚本均开源至课程中,供所有用户进行学习。
SOPHON-SDK开发指南:https://doc.sophgo.com/sdk-docs/v23.05.01/docs_latest_release/docs/SOPHONSDK_doc/zh/html/index.html
TPU-MLIR快速入门手册:https://doc.sophgo.com/sdk-docs/v23.05.01/docs_latest_release/docs/tpu-mlir/quick_start/html/index.html
示例模型仓库地址:https://github.com/sophon-ai-algo/examples
TPU-MLIR官方仓库地址:https://github.com/sophgo/tpu-mlir
SOPHON-SDeep learningL开发手册:https://doc.sophgo.com/sdk-docs/v23.05.01/docs_latest_release/docs/sophon-sail/docs/zh/html/