智算服务器SGM7-40,适配主流LLM,单卡可运行70B的大语言模型
SOM1684,搭载算能BM1684,支持16路高清视频分析
Core-1684-JD4,搭载算能BM1684,支持16路高清视频分析
SBC-6841,搭载算能BM1684,支持16路高清视频分析
iCore-1684XQ,搭载算能BM1684X,支持32路高清视频分析
Core-1684XJD4,搭载算能BM1684X,支持32路高清视频分析
Shaolin PI SLKY01,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-M,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-M-G,搭载算能BM1684,支持16路高清视频分析
QY-AIM16T-W,搭载算能BM1684,支持16路高清视频分析
AIV02T,PCIE板卡,1684*2,半高半长
IVP03X,搭载算能BM1684X,支持32路高清视频分析
IVP03A,微服务器 被动散热,12GB内存
Coeus-3550T,搭载算能BM1684,支持16路高清视频分析
EC-1684JD4,搭载算能BM1684,支持16路高清视频分析
CSA1-N8S1684,算力集群服务器,BM1684*8,1U
DZFT-ZDFX,ARM+DSP智能封条分析,搭载算能BM1684X
ZNFX-32,搭载算能BM1684,支持16路高清视频分析
ZNFX-8,ARM+DSP架构,隔爆兼本安分析装置符合煤安要求,搭载BM1684X
EC-A1684JD4,微服务器主动散热,16GB内存,32GB eMMC
EC-A1684JD4 FD,搭载算能BM1684,支持16路高清视频分析,16GB内存,32GB eMMC
EC-A1684XJD4 FD,搭载算能BM1684X,支持32路高清视频分析
ECE-S01,搭载算能BM1684,支持16路高清视频分析
IOEHM-AIRC01,微服务器,主动散热,搭载算能BM1684,支持16路高清视频分析
IOEHM-VCAE01,搭载算能BM1684,支持16路高清视频分析
CSA1-N8S1684X,算力集群服务器,BM1684X*8,1U
QY-S1U-16,1U版本BM1684盒子
QY-S1U-192,算力集群服务器,BM1684*12,1U
QY-S1X-384,算力集群服务器,BM1684X*12,1U
视频实时压缩转码上云和监测异常事件,增强道路运行安全事件的发现和处置能力
为交通拥堵、行车安全、车辆违法和道路污染治理问题赋能
以国产化算力支撑海量视频的结构化解析,服务警务应用实战
以数据为中心打造“智能、协同、高效、创新”的步态识别大数据分析系统
为用户快速构建融合人、车、通行等多维数据的业务能力
对生产全过程、全方位实时感知与精细化监管,推进应急监测智能化,赋能风险识别预警
为粮仓、棉仓等大型仓储园区的办公、质检、磅房、库区等区域提供了违规行为和异常事件的安全监控方案
全量场景感知预警,赋能烟草生产作业过程数智化
为白酒生产企业细化风险监测因素,建立智能感知与预警感知体系,提高企业安全生产管理水平
以云边协同的新型算力基础设施赋能各类数字城市场景,为数字经济发展提供源动力
以自动化训练推理一体化平台为基础,助力算力/算法整合应用快速、高效工程化落地
数据集包含两个模态,其中医疗影像数据共6670维,肠道数据共377维,样本数量39个。其中正样本标签为1,负样本标签为-1。
数据集包含了两种不同类型的中文信息抽取任务,包括关系抽取和事件抽取,同时涵盖句子和篇章两种粒度的自然语言文本。
数据集包含两个模态,其中医疗影像数据共6670维,肠道数据共377维,样本数量39个。其中正样本标签为1,负样本标签为-1。
数据集包含了两种不同类型的中文信息抽取任务,包括关系抽取和事件抽取,同时涵盖句子和篇章两种粒度的自然语言文本。
数据集为CASIA人脸图像数据库5.0版,包含500个主题的2500张彩色人脸图像。使用Logitech USB摄像头一次即可捕获CASIA-FaceV5的面部图像。 CASIA-FaceV5的志愿者包括研究生,工人,服务生等。所有面部图像均为16位彩色BMP文件,图像分辨率为640 * 480。典型的类内变化包括照明,姿势,表情,眼镜,成像距离等。
TPU-MLIR学习资料: https://tpumlir.org/index.html
TPU-MLIR开源仓库:https://github.com/sophgo/tpu-mlir
TPU-MLIR学习视频:https://space.bilibili.com/1829795304/channel/collectiondetail?sid=734875
TPU-MLIR入门手册:https://tpumlir.org/docs/quick_start/index.html
参赛者需要在Momodel平台上进行模型训练和测试,并最终在平台提交结果。
参赛者需要在算能云空间平台上进行模型的转换和部署,并最终在平台提交结果。
将以Hackthon的形式组织在线下举行。
最终成绩 = 准确率*50 + 召回率*30 + f1值*20。
对测试集上参评系统输出的SPO结果和人工标注的SPO结果进行精准匹配,采用F1值作为评价指标。注意,对于复杂O值类型的SPO,必须所有槽位都精确匹配才认为该SPO抽取正确。针对部分文本中存在实体别名的问题,使用百度知识图谱的别名词典来辅助评测。F1值的计算方式为:F1 = (2 * P * R) / (P + R) 。其中,P = 测试集所有句子中预测正确的SPO个数 / 测试集所有句子中预测出的SPO个数;R = 测试集所有句子中预测正确的SPO个数 / 测试集所有句子中人工标注的SPO个数
评价指标分为两部分,精度分为综合成绩指标(与初赛题1一致),速度指标为处理完所有数据所用时间。
评价指标分为两部分,精度分为F1指标(与初赛题2一致),速度指标为处理完所有文本数据所用时间。
评价指标分为两部分,精度分为F1指标,速度指标为处理完所有图像所用时间。