前段时间一个朋友在问,怎么把NVIDIA Jetson Nano 开发套件用在高速公路收费站的一些识别应用?经过简单的交流之后,他说需要的软件其实相对简单,但是使用环境的问题就比较头痛了。
首先,设备放在室外环境,需要面对的就是工作温度与散热的问题,就是第一个大考验。从寒冬夜间最低温到0以下,到严暑中午的40度以上高温,这就不是民用级Nano开发套件所能承受的,必须使用NVIDIA宽温工业级的Jetson Nano P3448-0002芯片才能胜任。
其次,震动问题是另一个大麻烦。上过高速公路的人应该都清楚,当收费站有大型车辆通过时,都会产生有感震动,保守估计这种震动的频率至少是每天上千次。没做过防震措施的Nano 开发套件,是顶不住这样的考验。
最后,收费站地点大多风沙大,缺乏防尘设计Nano开发套件,很快就会灰头土脸,影响正常工作。

综合以上的使用需求,就必须用NVIDIA工业级的P3448-0002 Nano芯片,搭配工业级的整套系统,包括符合IP4X防护等级、无风扇密闭式防尘设计等,才能在收费站这类使用环境下稳定地工作。

因此,要面对这样严酷的使用环境,就必须使用NVIDIA工业级P3448-0002的NANO AI计算核心,搭配符合IP4X防护等级的工业级系统,包括防尘、防震、防雷、防静电等完整设计。LCFC EA-B100就是满足以上需求的定制系统,本实验室对EA-B100进行开箱测试,整理以下特性,分享给各位读者:
l 计算核心:采用 NVIDIA Jetson Nano P3448-0002工业级(宽温版)AI计算核心。
l 紧凑设计:外尺寸为100mm X 68mm X 48mm,与Jetson Nano开发套件大小相近。
l 防尘无风扇设计:全封闭式机壳散热设计,满足恶劣环境工业级防尘要求

l 防震设计:IP4X防护等级,满足移动设备(交通工具、机器人、飞行器)使用
以上的设计重点,大部分工控设备原厂都能想到,至于防护等级(防震、防尘、防雷、防静电)以及无风扇(fanless)扇热设计方面,则需要非常昂贵的检测设备,才能调试符合工业标准与国家标准的产品,因此要用在关键任务(mission-critical)的环节,就得确认产品是否通过相关的认证,才能确保在恶劣环境中的稳定使用。
很多对 NVIDIA Jetson 比较熟悉的朋友,可能最主要的质疑点,就是工业级Nano芯片只有16GB存储空间,能满足应用软件的使用吗?
经过实践的操作,在安装Jetpack 4.4 + DeepStream 5.0之后,就剩下不到500MB的可用空间了,实在不足以再安装其他应用软件,这是个相当严重的问题,影响这类产品的实用性。
关于这个缺陷,EA-B100做了一个非常重要的设计,就是提供了一个 TF 扩充槽,并且将这个扩充槽非常细心地放置在防尘的护罩里面(如下图),得到完全的保护。

这个设计不仅保持IPX4防护等级,同时也解决Jetson P3448-0002工业级Nano芯片存储不足的问题,是目前这款产品非常重要的特色。扩充的TF容量请自行选择,推荐32GB 以上、A3以上级别为佳。
然而仅仅添加TF卡之后就可以顺利安装与执行额外的应用软件?熟悉 Ubuntu 的人应该清楚,并非只是添加 TF 卡就能添加许多应用,因为主存储(16GB EMMC)剩下不到500MB容量,随便添加个 Tensorflow/PyTorch 之类的软件,大概就爆掉了。
为了让EA-B100能正常添加更多应用,包括安装Tensorflow、PyTorch、YOLO、Jetson-inferece、trt_pose等Object Detection应用,而且还下载多个NGC上容器到 EA-B100 上运行,本实验室针对实际的状况,执行以下步骤:
1. 先将32G TF卡格式成 ext4 格式,并且挂载到 /media/temp 目录
2. 将 /home/lcfc(工作目录)内容搬搬迁到 TF 卡上
3. 修改 /etc/fstab,将 TF 卡于下次启动时,挂载成 /home/lcfc,重启系统
4. 确认 TF 挂载成 /home/lcfc 之后,将 /usr/local 完全移至 /home/lcfc/local 目录,并且在 /usr 下建立一个指向 /home/lcfc/local 的 local 链接(使用 sudo ln -s 指令)
5. 此时 16GB EMMC 存储大约能腾出大约 5GB 空间
6. 将 docker 的工作目录指向 /home/lcfc/docker,重启 docker 服务,然后就能放手地好好使用 NGC 上的 docker 镜像
现在 16GB EMMC 有足够空间安装更多系统工具,而 TF 卡上面大约还剩余20+GB 空间可以安装大部分的应用。
接下去就将我们在 EA-B100 上面执行的几个应用做个简单说明:
1. NGC的Docker 版 Jetson-pose 跑测试 Video
(性能达15FPS)
2. github.com/NVIDIA-AI-IOT/trt_pose 的CSI摄像头测试
(性能达 10FPS)
3. github.com/dusty-nv/Jetson-Inference的 Object Detection
(性能达到 20+ FPS)
4. Deepstream 分别指向 Docker 版本与本地(local)版本,性能一样

- 关于NVIDIA Jetson AGX Orin模组,这些信息很重要
- 对计算能力9.0+GPU卡特性的探索
- 在自动光学检测(AOI)领域中推广Jetson Xavier 方案到底解决哪些痛点?
- 关于Jetson AGX Orin产品你不知道的关键点都在这里
- 揭秘 Jetson 上的统一内存
- NVIDIA Jetson 软件: 将 NVIDIA 加速技术带到边缘
- 新一代Jetson NANO开发套件(B01)开箱
- 从Tensorflow生成TensorRT引擎的方法
- 实战教程:利用NVIDIA TensorRT优化一个推荐系统
- NVIDIA机器人开发工具包ISAAC实战(英文)
- 如何搭建一个NVIDIA JetBot小车(英文)
- Jetson TX2进行摄像头驱动的开发