AI计算有了新物种 - 品奇数码MagicAI人工智能加速技术

2019-03-15 17:25 出处:其他 作者:佚名 责任编辑:yuyanhong_JZ
收藏成功,去查看收藏>>

  传统概念中,人工智能计算需要 GPU 或专门的 AI 芯片(ASIC)进行加速才能快速运行。PQ Labs(上海品奇数码科技有限公司) 在 CES 2019 中发布的 MagicAI 技术改变了而这一现状,可以使 人工智能应用在通用 CPU 上跑的比 GPU 更快。   

  MagicAI (Magic Tiny Yolo) 在 Intel i7 CPU 下运行帧率达到 718 FPS,是 Titan X / 1080Ti 的 3.5倍,是 Intel MKL 方案的 199倍。   

  为什么大家都用GPU跑人工智能?

  因为由于历史原因,通用CPU没有为大规模的神经网络运算进行优化,运行效率极其低下。而整个业界和学术界在人工智能方面的研究都是建立基于图形显卡的编程模型上(特指 NVIDIA GPU 显卡,AMD GPU 缺少相关的软件及算法)。除此之外,市场上还有其他的 AI 芯片,但大都基于类似的 AI 模型和优化策略。   

  “人工智能的科技树或许正沿着一条低效率的方向展开,世界上存在着其他的技术路径值得我们去探索,是否会有比现状更好的技术实现,这就是 PQ Labs MagicAI 技术的发挥空间。”PQ Labs CEO 陆飞博士表示,他同时也是 MagicAI 技术的核心研发人员。   

  有没有其他的技术路径?

  MagicAI 技术拥有非常快的运行速度:可以在 Intel i7 处理器上,以 718 FPS 的帧率运行 物体识别 程序而无需降低识别精度,而在同样 CPU 上直接运行 Tiny Yolo 则仅仅有 3.6 FPS 的帧率。MagiAI(Tiny Magic Yolo)的计算速度达到了 Intel MKL 的199倍,甚至达到了经过 GPU (Titan X / 1080Ti) 加速的 Tiny Yolo 3.5倍的运行速度。   

  MagicAI 技术的设计和开发是从深度学习最底层的数学基础开始的,所有数学运算都被重新优化设计,重新封装在一个叫做 “MagicCompute” 的运算库内,以替代 NVIDIA CUDA,cuDNN 及 Intel MKL,并实现运行速度的提升。例如, “卷积运算” (所有深度学习模型的基础运算)由 “MagicConvolution” 来执行,就可以获得性能的飞速提升。   

  MagicAI 的运行速度提升同样来自于其独特的骨干网络模型,运行速度要比 MobileNet V2、ShuffleNet V2 等轻量化模型更快,并且准确度更高。将 Yolo、SSD 等模型的 骨干网络 替换为 MagicAI,就成了全新的网络:Magic-Yolo 和 Magic-SSD,比原来的网络提速 199倍。   

  MagicAI 从设计之初就与众不同,目前人工智能的产业界和学术界依然沿用深度学习技术在其非常早年间定义下来的训练方式,严重依赖基于ImageNet Classification 的训练和调优,然后再使用 ImageNet 的模型作为预训练模型,通过 “知识迁移” 来训练并获取其他任务的能力(比如物体识别)。   

  这种传统模式在过去并没有什么问题,但是 MagicAI 的做法有所不同,我们认为 对 ImageNet Classification 的调优并不是最优解,有时优秀的 Classification 结果反而会对其他任务的精度带来负面影响。 MagicAI 选择重新设计新的训练方式来解决这个问题,这进一步提升了 MagicAI 的准确率和计算效率。

手机论坛帖子排行

最高点击 最高回复 最新
最新资讯离线随时看 聊天吐槽赢奖品
文章页底部微信二维码
收藏 (0) +1 (0) +1 (0) +1
网友评论
注:所有评论通过审核后才会被公开。
最新评论
手机访问最新资讯离线随时看聊天吐槽赢奖品回到顶部