智能视觉深度学习处理器,8路高清视频智能分析,16路高清硬解码,10路高清硬编码
智能视觉深度学习处理器,8路高清视频智能分析,16路高清硬解码,10路高清硬编码
SRA3-40是一款面向高性能计算的RISC-V通用服务器,国产主控具备强劲性能,融合智算,支持强编解码。
SRB3-40是一款高性能的RISC-V存储服务器,多盘位大容量安全存储。
智算服务器SGM7-40,适配主流LLM,单卡可运行70B的大语言模型
SOM1684,搭载算能BM1684,支持16路高清视频分析
Core-1684-JD4,搭载算能BM1684,支持16路高清视频分析
SBC-6841,搭载算能BM1684,支持16路高清视频分析
iCore-1684XQ,搭载算能BM1684X,支持32路高清视频分析
Core-1684XJD4,搭载算能BM1684X,支持32路高清视频分析
Shaolin PI SLKY01,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-M,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-M-G,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-W,搭载算能BM1684,支持16路高清视频分析
AIV02T,PCIE板卡,1684*2,半高半长
IVP03X,搭载算能BM1684X,支持32路高清视频分析
IVP03A,微服务器 被动散热,12GB内存
Coeus-3550T,搭载算能BM1684,支持16路高清视频分析
EC-1684JD4,搭载算能BM1684,支持16路高清视频分析
CSA1-N8S1684,算力集群服务器,BM1684*8,1U
DZFT-ZDFX,ARM+DSP智能封条分析,搭载算能BM1684X
ZNFX-32,搭载算能BM1684,支持16路高清视频分析
ZNFX-8,ARM+DSP架构,隔爆兼本安分析装置符合煤安要求,搭载BM1684X
EC-A1684JD4,微服务器主动散热,16GB内存,32GB eMMC
EC-A1684JD4 FD,搭载算能BM1684,支持16路高清视频分析,16GB内存,32GB eMMC
EC-A1684XJD4 FD,搭载算能BM1684X,支持32路高清视频分析
ECE-S01,搭载算能BM1684,支持16路高清视频分析
IOEHM-AIRC01,微服务器,主动散热,搭载算能BM1684,支持16路高清视频分析
IOEHM-VCAE01,搭载算能BM1684,支持16路高清视频分析
CSA1-N8S1684X,算力集群服务器,BM1684X*8,1U
QY-S1U-16,1U版本BM1684盒子
QY-S1U-192,算力集群服务器,BM1684*12,1U
QY-S1X-384,算力集群服务器,BM1684X*12,1U
为交通拥堵、行车安全、车辆违法和道路污染治理问题赋能
利用深度学习云边结合方式解决全域多家餐饮机构的食品安全监管需求,为政府、企业级公众打造监督闭环
对生产全过程、全方位实时感知与精细化监管,推进应急监测智能化,赋能风险识别预警
以云边协同的新型算力基础设施赋能各类数字城市场景,为数字经济发展提供源动力
以自动化训练推理一体化平台为基础,助力算力/算法整合应用快速、高效工程化落地
TPU编程竞赛-应用挑战赛(以下简称“大赛”)是由算能主办的应用挑战竞赛,大赛面向各大高校学生、开源社区开发者等来自各地的参赛选手,旨在根据不同算法和软件技术栈层级逐步设立系列竞赛赛事,并将竞赛赛题开源。TPU编程竞赛作为一个高水平的竞赛平台,致力于为国家发现和培育算法人才、极致挖掘TPU硬件澎湃算力、用算法和软件的创新解决社会或业务问题,激发开源创新活力,培养开源实践人才,助力开源生态建设。
图像分割是图像处理和计算机视觉领域的一个重要课题,广泛应用于场景理解、医学图像分析、机器人感知、视频监控、增强现实和图像压缩等领域。
本赛题旨在为选手提供一个预训练的分割模型UNet及测试数据集。参赛选手无须训练模型,使用算能MLIR开源编译器进行编译、量化及调优,实现UNet模型在算能1684X处理器上的部署。参赛者需要兼顾精度与性能,要求精度dice不低于0.85,平均推理延时小于300ms。
TPU-MLIR项目是算能智能处理器的TPU编译器工程。该工程提供了一套完整的工具链,其可以将不同框架下预训练的神经网络,转化为可以在算能TPU上高效运算的二进制文件。
1. 【准备环境】首先准备好TPU-MLIR的环境,参考https://tpumlir.org/docs/quick_start/02_env.html
2. 【下载模型】之后从https://github.com/milesial/Pytorch-UNet中,下载UNet模型,有scale1.0和scale0.5两种,为pth格式
3. 【pth->onnx】在模型前后添加前后处理算子,之后编写脚本,将pth格式模型转化为onnx格式
4. 【onnx->mlir】使用tpu/python/tools下的model_transform.py将onnx格式文件转化为mlir
5. 【mlir->bmodel】使用tpu/python/tools下的model_deploy.py将mlir格式文件转化为bmodel模型
6. 【前向推理】参考【初赛参赛指南】中的代码编写前向推理代码,使得bmodel模型能够在测试数据集上跑通。(可以下载复赛数据集中的图片作为tpu_tester.py 的输入)
6. 【提交】将bmodel文件和前向推理代码tpu_tester.py放入submit文件夹后压缩为zip文件,将submit.zip 提交到yi.chu@sophgo.com
本赛题分为初赛、决赛和决赛三个阶段,具体安排和要求如下:
2022/12/09(00:00)发布大赛赛题,选手可登陆算能官网报名;
2022/01/31(12:00)截止报名组队;
2022/12/25(12:00)开启初赛线上测评,参赛选手需使用指定的UNet模型,下载数据并本地调试算法,使用MLIR编译器将模型转换为fp32bmodel,并添加前后处理程序,实现该模型的应用,并能够正确地处理数据。选手可以向指定邮箱提交前后处理代码和fp32bmodel文件,请将代码和fp32bmodel放到目录后压缩为zip文件发送到yi.chu@sophgo.com(pth、onnx、mlir、npz等无需提交),官方会在后台验证是否通过;
2023/01/31(20:00)截止初赛作品提交,复赛入围资格以能够打通流程,使用MLIR将模型转化为fp32bmodel为准,打通流程即可入围复赛。
2023/02/01-02/28,在复赛阶段,参赛选手通过学习MLIR编译器中的量化工具,将UNet模型转为int8bmodel。最终依据模型的精度和性能作为评价指标进行排名。
2023/02/28(20:00)截止复赛作品提交,排名前20支队伍进入决赛。
2023/03/01-03/15,决赛复现与答辩,选手需输出主观题文档与答辩PPT;
2023/03/15,决赛队伍答辩;
2023/03/16(12:00)公布最终排名。
大赛面向全球征集参赛团队,不限年龄、国籍,高校、科研院所、企业从业人员等均可登录官网报名参赛。
个人报名信息要求准确有效,否则会被取消参赛资格。本赛事不收取任何报名费用。
每队1-5人,每个人最多组队一次,不可退出队伍。
选手通知:大赛组委会将通过参赛团队预留的联系方式邀请参赛团队参与大赛各项活动,若参赛团队在相关通知发出后3日内未答复,则视为自动放弃相应机会,主办方有权顺位递补其他参赛团队。
选手获奖:在比赛结束后六个月之内将会将奖金发送到获奖者账户中。
参赛团队在比赛过程中需要自觉遵守参赛秩序,禁止使用规则漏洞、技术漏洞、手动打标等不良途径提高成绩与排名,也禁止在比赛中抄袭他人代码、串通答案、开小号,如果被发现就会被取消比赛资格,并终身禁赛。