联系我们
SOPHGO算能
SOPHGO 算能
销售电话: 010-57590724
请将您的问题留言给我们
您的称呼 *

您的联系电话 *

您的微信/QQ
您的单位/公司

留言信息 *

上传附件

留言成功
客服人员会通过您的联系方式通知您留言处理结果
SOPHGO icon
关注算能公众号
期待与您合作

案例中心

在线课堂

Milk-V Duo开发板实战课
初级 | 0.3h
1414
0
3
大模型理论与实战
高级 | 2.4h
1250
0
2
少林派开发板实战课
初级 | 1.6h
1681
0
1
RISC-V+TPU开发板实战课
初级 | 2.2h
1450
1
1
SE5开发系列课
初级 | 5.7h
1541
0
1

认证专区

权威认证体系,助力职业发展!
每日签到
待领取积分
5

+5

周一

+5

周二

+5

今天

+5

周四

+5

周五

+5

周六

+5

周日

积分中心
个人中心
每日任务 每个案例、课程只能加一次积分
每日签到
5积分
已完成:0/1个
0%
立即前往
案例学习
5积分
已完成:0/5个
0%
立即前往
课程学习
不限
已完成:0/5个
0%
立即前往
最新课程
course-cover
大模型理论与实战

欢迎加入大模型课程!本课程将带你深入了解什么是大模型,并帮助你掌握应用这些强大模型的技能。无论你是对深度学习领域感兴趣,还是想在实际项目中应用大模型,本课程都将为你提供宝贵的知识和实践经验。

大模型是指具有巨大参数量和复杂结构的深度学习模型。这些模型在处理大规模数据集和复杂任务时表现出色,如图像识别、自然语言处理、语音识别等。大模型的兴起引发了深度学习领域的巨大变革,并在许多领域取得了突破性的成果。

在本课程中,你将学习大模型的基本概念和原理。我们将详细介绍LLM(Large Language Models)的基础理论、发展历程、常用的大模型和不断发展的Prompt和In-context learning技术。随着课程的深入,我们将进行大模型实战应用。你将学习到如何部署Stable Diffusion和ChatGLM2-6B等备受关注的大模型到算能自研的最新一代深度学习处理器BM1684X。SOPHON BM1684X, 是算能面向深度学习领域推出的第四代张量处理器,算力可达32TOPS,支持32路高清硬解码和12路高清硬编码,可用于深度学习、机器视觉、高性能计算等环境。

无论你是想在学术界深入研究大模型,还是在工业界应用这些技术,本课程都将为你提供坚实的基础和实践能力。准备好迎接大模型的挑战了吗?让我们一起探索这个令人着迷的领域吧!

1250
0
2
course-cover
RISC-V+TPU开发板实战课

本课程介绍了华山派的硬件电路设计以及外设资源使用操作方法,并且提供了深度学习的硬件加速接口使用教程和一些基础实例

华山派 -- CV1812H开发板,是算能和生态伙伴硬件十万个为什么联合推出的开源生态开发板,为广大使用者提供基于RISC-V的开源开发环境,以视觉场景开发为核心实现功能,处理器更集成第二代全自研深度学习张量处理器(TPU),全自研智能图像处理引擎(Smart ISP),硬件级别高度安全资料保护架构(Security),语音处理引擎及H.264/265智能编解码技术,同时还有配套的多媒体软件平台和IVE硬件加速接口,使部署与执行更加高效、快速、便捷。主流的深度学习框架,比如Caffe,Pytorch,ONNX ,MXNet和TensorFlow(Lite) 框架的主流网络可以轻松的移植到平台上。

课程特点

  1. 内容资料丰富齐全,开发板硬件设计、sdk使用文档、平台开发指南、样例代码脚本
  2. 学习路线科学合理,通过开发板的介绍和基础例程使用来了解学习开发板,再通过内部系统架构和代码的学习来深入理解开发细节,最后引出实战项目,让开发板物尽其用,也共用户自行开发时作为参考
  3. 适用不同受众人群,对于想要快速使用开发功能的用户,课程提供有许多代码样例的使用及功能展示,只需修改、组合就能完成不同功能的实现;而对于相关行业的热爱者或开发者,课程也提供了详细的sdk开发使用指南和代码样例分析文档,有助于用户深入了解
  4. 课程相关长期维护,未来我们将推出更多开发课程,与广大开发者技术交流、共同成长。

课程内容

华山派开发板配套开源代码链接:https://github.com/sophgo/sophpi-huashan.git

1450
1
1
course-cover
【编译器】TPU-MLIR环境搭建与使用指南

TPU-MLIR是专注于处理器的TPU编译器,该编译器工程提供了一套完整的工具链,可以实现将多种不同的深度学习框架(PyTorch、ONNX、TFLite和Caffe)下预训练的神经网络模型,通过编译和转换实现转化为可以在算能TPU上高效运算的模型文件bmodel/cvimodel,通过量化为不同精度的bmodel/cvimodel实现在算能硬件TPU上的加速和模型性能的优化,从而实现将各种目标检测、语义分割和目标跟踪等相关模型部署到底层硬件上进行加速。

本节课程主要分为三大部分:

一、实现本地开发环境的搭建和配置,并完成相关SOPHON SDKTPU-MLIR编译器核心理论及相关加速接口的学习。

二、完成ONNXTFLiteCaffePyTorch四种深度学习模型样例的转换与量化,以及其他深度学习框架转换中间格式ONNX的方法。

三、带领大家进行实战化移植四个实例算法(检测、识别和跟踪等方向算法)进行编译转换和量化,最终部署到算能1684x张量处理器的TPU处理器上进行性能测试。


本课程将通过实战演示作为驱动,带领大家全面、直观地了解TPU-MLIR编译器的使用,实现快速上手转换和量化不同深度学习模型算法并能够在移植到算能处理器TPU上进行部署测试。目前TPU-MLIR的使用已被应用在算能研发的最新一代深度学习处理器BM168X及CV18XX上,搭配上处理器本身的高性能ARM内核以及相应的SDK,能够实现深度学习算法的快速部署。

本课程的学习在模型移植部署上具备以下优势:

1、支持多种深度学习框架

目前直接支持的框架有PyTorch、ONNX、TFLite和Caffe。其他框架的模型需要转换成ONNX模型。如何将其他深度学习架构的网络模型转换成ONNX, 可以参考ONNX官网: https://github.com/onnx/tutorials

2、易操作

通过阅读开发手册及相关部署案例,了解TPU-MLIR的原理和操作步骤,实现模型从零到部署,掌握相关Linux操作命令和模型编译量化命令即可上手实操。

3、量化部署步骤简便

模型转换需要在算能提供的docker内执行, 主要分两步, 一是通过 model_transform.py 将原始模型 转换成mlir文件, 二是通过 model_deploy.py 将mlir文件转换成bmodel格式。bmodel便是可以在算能TPU硬件上运行加速的模型文件格式。

4、适配多架构多模式硬件

量化好的bmodel模型可以运行在PCIe和SOC两种模式上的TPU上进行性能测试

5、资料手册齐全

丰富的教学视频,包含详细的理论讲解与实战操作,充分的实操指导和规范化的代码脚本均开源至课程中,供所有用户进行学习。

SOPHON-SDK开发指南:https://doc.sophgo.com/sdk-docs/v23.05.01/docs_latest_release/docs/SOPHONSDK_doc/zh/html/index.html

TPU-MLIR快速入门手册:https://doc.sophgo.com/sdk-docs/v23.05.01/docs_latest_release/docs/tpu-mlir/quick_start/html/index.html

示例模型仓库地址:https://github.com/sophon-ai-algo/examples

TPU-MLIR官方仓库地址:https://github.com/sophgo/tpu-mlir

SOPHON-SDeep learningL开发手册:https://doc.sophgo.com/sdk-docs/v23.05.01/docs_latest_release/docs/sophon-sail/docs/zh/html/


课程目录

 

2703
1
2

为什么选择SOPHON实战培训

advantage-icon

专业技能学习

学习当下聚焦的新技术,掌握理论与实验,提升专业技术能力。
advantage-icon

行业标准的工具和框架

支持PyTorch、Tensorflow、Caffe、PaddlePaddle、ONNX等主流框架,使用符合行业标准的工具及软件。
advantage-icon

在线灵活自主学习

自主调节学习速度,随时随地在线学习,低成本且更有趣的享受名师培训。
advantage-icon

SOPHON 技术能力认证

SOPHON 技术能力认证可以证明您在相关领域达成了一定学习成果,是您提升个人能力的证明。
advantage-icon

SOPHON.NET云开发环境

提供课程需要的云开发空间,为算法开发、测试提供便捷的云端资源,让算法开发不再拘泥于硬件。
advantage-icon

行业应用案例

学习适用于无人机、机器人、自动驾驶、制造等行业的智能加速计算应用。

合作伙伴