NVIDIA去年发布了一个线上讲座,题目是《 AI at the Edge TensorFlow to TensorRT on Jetson 》。
我们将视频翻译并用笔记的方式分享给大家。
完整内容主要介绍使用TensorFlow开发的深度神经网络如何部署在NVIDIA Jetson上,并利用TensorRT加速到5倍。
您将了解到:
1.TensorFlow性能如何与使用流行模型(如Inception和MobileNet)的TensorRT进行比较
2在Jetson上运行TensorFlow和TensorRT的系统设置
3 如何检查TensorFlow graph 以获得TensorRT兼容性
4.将TensorFlow图像分类模型转换为TensorRT的工作流程
5. 如何在Jetson TX2上执行TensorRT图像分类模型
下面是完整笔记内容
边缘计算笔记(一): Jetson TX2上从TensorFlow 到TensorRT
边缘计算笔记(二): 从tensorflow生成tensorRT引擎的方法
边缘计算笔记(三):从Tensorflow生成TensorRT引擎的方法(完结篇)

热门技术支持
- 关于NVIDIA Jetson AGX Orin模组,这些信息很重要
- 对计算能力9.0+GPU卡特性的探索
- 在自动光学检测(AOI)领域中推广Jetson Xavier 方案到底解决哪些痛点?
- 关于Jetson AGX Orin产品你不知道的关键点都在这里
- 揭秘 Jetson 上的统一内存
- NVIDIA Jetson 软件: 将 NVIDIA 加速技术带到边缘
热门课程
- 新一代Jetson NANO开发套件(B01)开箱
- 从Tensorflow生成TensorRT引擎的方法
- 实战教程:利用NVIDIA TensorRT优化一个推荐系统
- NVIDIA机器人开发工具包ISAAC实战(英文)
- 如何搭建一个NVIDIA JetBot小车(英文)
- Jetson TX2进行摄像头驱动的开发
热门标签 TAG