我正在研究能够检测用户并关注用户的机器人。我正在使用Darkflow回购中的YOLOv2作为对象检测模块。
截至目前,我想让Arduino微控制器在检测到机器人时将机器人向前移向边界框。没有距离或立体声凸轮。就像检测到边界框一样,然后向前驱动电动机。
这是我的代码,用于通过相机检测边界框。如果有人可以将我引导到正确的路径以获取任何资源或教程,将很有帮助。谢谢。
import cv2
from darkflow.net.build import TFNet
import numpy as np
import time
options = {
'model': 'cfg/yolov2.cfg',
'load': 'bin/yolov2.weights',
'threshold': 0.8,
'gpu': 0.8
}
tfnet = TFNet(options)
colors = [tuple(255 * np.random.rand(3)) for _ in range(10)]
capture = cv2.VideoCapture(0)
capture.set(cv2.CAP_PROP_FRAME_WIDTH, 1920)
capture.set(cv2.CAP_PROP_FRAME_HEIGHT, 1080)
while True:
stime = time.time()
ret, frame = capture.read()
if ret:
results = tfnet.return_predict(frame)
for color, result in zip(colors, results):
tl = (result['topleft']['x'], result['topleft']['y'])
br = (result['bottomright']['x'], result['bottomright']['y'])
label = result['label']
confidence = result['confidence']
text = '{}: {:.0f}%'.format(label, confidence * 100)
frame = cv2.rectangle(frame, tl, br, color, 5)
frame = cv2.putText(frame, text, tl, cv2.FONT_HERSHEY_COMPLEX, 1, (0, 0, 0), 2)
cv2.imshow('frame', frame)
print('FPS {:.1f}'.format(1 / (time.time() - stime)))
if cv2.waitKey(1) & 0xFF == ord('q'):
break
capture.release()
cv2.destroyAllWindows()
如果我能获得边界的中心位置,将会很有帮助框
由于边界框的左上角和右下角的中心是两个位置的平均值。
如何向arduino发送命令?
通过Arduino的虚拟COM端口使用串行通信。在线上有一百万个教程。
https://www.arduino.cc/reference/en/language/functions/communication/serial/
https://pyserial.readthedocs.io/en/latest/
https://www.instructables.com/id/Interface-Python-and-Arduino-with-pySerial/