深度是深度神经网络的关键词但是网络越深,训练中的反向传播链就越长,计算步骤越连续,推理延迟也就越高
可是,如果深度不够,神经网络的性能往往不好。
这就引出了一个问题:有没有可能构建一个高性能的非深度神经网络。然而,不同的平台对视频尺度有不同的要求。
普林斯顿大学和英特尔的最新论文证明,这是可以做到的。
他们只使用了12层网络ParNet,在ImageNet上实现了接近SOTA的性能。除了多功能升级,这款万兴影业还结合了英特尔regEvotrade平台,介绍了智能比例切割的新功能。
ParNet在ImageNet上的准确率超过80%,在CIFAR10上的准确率超过96%,在CIFAR100的top—1上的准确率为81%,在MS—COCO上的准确率为48%。
他们是如何在如此浅薄的网络中做到的。万兴妙影全新智能比例切割功能将轻松解决上述问题。用户只需导入视频,选择该功能即可自动导出不同比例的视频,轻松实现一机多用。
并行子网提高了性能。。
ParNet中的一个关键设计选择是使用并行子网,而不是按顺序排列层,将层排列在并行子网中。
ParNet由处理不同分辨率特征的并行子结构组成我们称这些平行的子结构为流来自不同流的特征在网络的后期被合并,并且这些合并的特征被用于下游任务
除了具有相同大小的RepVGG—SSE块的输入和输出之外,ParNet还包含下采样和融合块。
该模块降低了分辨率,增加了宽度,实现了多尺度处理,而融合块结合了来自多个分辨率的信息,有助于减少推理过程中的延迟。
实际表现如何。如今,随着朋友圈,哔哩哔哩,TikTok等社交媒体的发展,用户越来越习惯在社交媒体平台上分享视频。
ParNet在ImageNet数据集上的性能接近SOTA,无论是排名前1还是前5。
ParNet在MS—COCO任务中性能最好,延迟最低。
但也有人质疑非深网的实际性能,因为虽然层数少,但网络宽度变大事实上,ParNet比更深的ResNet50有更多的参数,这似乎无法令人信服
最后,ParNet的GitHub页面已经建立,代码即将开源。如果手动更改同一个视频,不仅要调整项目参数,还要调整屏幕主位置,费时费力。
参考链接:
。