当前,将AI或深度学习算法(如分类、目标检测和轨迹追踪)部署到嵌入式设备,进而实现边缘计算,正成为轻量级深度学习算法发展的一个重要趋势。今天将与各位小伙伴分享一个实际案例:利用ChatGPT在ELF 1开发板上成功部署深度学习模型的项目,该项目能够实时读取摄像头视频流并实现对画面中的物体进行精准的目标检测。
项目所需的硬件设备:1、基于NXP(恩智浦)i.MX6ULL的ELF 1开发板,2、网线,3、USB摄像头。
获取开发板摄像头文件路径
本次项目开发使用的为普通的USB摄像头,将摄像头插在开发板任一USB口均可。
在Linux开发板中使用USB摄像头,通常会涉及到一些基本的命令行操作。这些操作主要是通过 Video4Linux (V4L2)内核框架API进行的。以下是一些常用的命令和概念:
1. 列出所有摄像头设备: 使用 ls /dev/video* 命令可以列出所有已连接的视频设备。这些设备通常显示为 /dev/video0 , /dev/video1 等。如下图,开发板中对应的摄像头为/dev/video2(插入哪个USB口都是一样的)。
2. 查看摄像头信息: 使用v4l2-ctl –all -d /dev/video2可以查看特定摄像头(例如/dev/video2)的所有信息,包括支持的格式、帧率等。可以看到图象尺寸为640480, 为了和后续的目标检测输入图像大小匹配,需要在程序中进行resize。
编写程序,读取取摄像头视频进行检测
并传递检测结果到上位机
编写在开发板中运行的程序,开发板中运行的程序主要有两个功能:
1. 读取摄像头捕捉的视频并进行检测
2. 将检测结果通过网络通信传递到上位机中
首先是第一个功能,因为一边要读取视频,一边要进行图片检测,为了提高检测速度,使用多线程来编写相应的程序。线程间通讯采用队列,为避免多线程间的竞态,在访问共享资源时需要添加互斥锁。
第二个功能,采用socket通信,将检测后的图像发送到上位机中即可。
下面是完整的程序实现:
/*命名为 squeezenetssd_thread.cpp */
#include “net.h”
#include
#include
#include
#include
#include
#include
#include
#include
#include
/*增加多线程代码*/
#include
#include
#include
#include
/*队列通信,全局变量*/
std::queue frameQueue;
std::mutex queueMutex;
std::condition_variable queueCondVar;
bool finished = false;
const size_t MAX_QUEUE_SIZE = 2; // 设为两个,因为检测速度实在太慢,多了意义不大
struct Object {
cv::Rect_ rect;
int label;
float prob;
};
ncnn::Net squeezenet;
int client_sock;
static int detect_squeezenet(const cv::Mat& bgr, std::vector
将上述程序,拷贝到ncnn目录下,并更改CMakeLists.txt文件。
1、拷贝程序
2、更改CMakeLists.txt文件
做好以上工作后,我们直接进入ncnn-master/build/examples/ 文件夹下进行编译。编译之前直接切换到ncnn-master/build 目录输入:
cmake -DCMAKE_TOOLCHAIN_FILE=../toolchains/arm-linux-gnueabihf.toolchain.cmake –
DNCNN_SIMPLEOCV=ON -DNCNN_BUILD_EXAMPLES=ON -DCMAKE_BUILD_TYPE=Release ..
然后切换到ncnn-master/build/examples/ 目录下输入 make -j4 即可。
可见编译成功,拷贝到开发板中就行。
编写上位机软件
上位机软件较为简单,使用ChatGPT编写即可,下面附上源码:
import socket
import cv2
import numpy as np
client_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
client_socket.connect((‘192.168.0.232’, 12345)) # Connect to the server
while True:
# Receive size of the frame
size = client_socket.recv(4)
size = int.from_bytes(size, byteorder=’big’)
# Receive the frame
buffer = b”
while len(buffer) buffer += client_socket.recv(size – len(buffer))
# Decode and display the frame
frame = np.frombuffer(buffer, dtype=np.uint8)
frame = cv2.imdecode(frame, cv2.IMREAD_COLOR)
cv2.imshow(‘Received Frame’, frame)
if cv2.waitKey(1) & 0xFF == ord(‘q’):
break
client_socket.close()
cv2.destroyAllWindows()
服务器托管,北京服务器托管,服务器租用 http://www.fwqtg.net
相关推荐: 调用阿里通义千问大语言模型API-小白新手教程-python
阿里大语言模型通义千问API使用新手教程 最近需要用到大模型,了解到目前国产大模型中,阿里的通义千问有比较详细的SDK文档可进行二次开发,目前通义千问的API文档其实是可以进行精简然后学习的,也就是说,是可以通过简单的API调用在自己网页或者软件中接入一个大语…