이거말고 뒤에서 xycar YOLO ROS 적용 나옴,
중간에 HOSTNAME, MASTER_URI 정도만 쓰자
cd
sudo apt-get install ros-melodic-image-transport ros-melodic-vision-msgs
./install_catkinws.sh dnn_ws
cd dnn_ws/src
git clone https://github.com/dusty-nv/ros_deep_learning
cd ..
catkin_make
(여기서 에러났음, bashrc 확인)
gedit ~/.bashrc
bashrc에서,
source /opt/ros/melodic/setup.bash
source ~/catkin_ws/devel/setup.bash
source devel/setup.bash (같은거인듯)
echo "source ~/dnn_ws/devel/setup.bash" >> ~/.bashrc (추가 가능)
확인
나중에 다른기기 연결할 때, localhost 부분에 master, slave ip 넣으면 된다함
export ROS_MASTER_URI=http://localhost:11311
export ROS_HOSTNAME=localhost
VIEWER
roslaunch ros_deep_learning video_viewer.ros1.launch input:=/dev/video1 output:=display://0
detection
roslaunch ros_deep_learning detectnet.ros1.launch input:=/dev/video1 output:=display://0
launch 파일 확인
cd ~/dnn_ws/src/ros_deep_learning/launch
gedit video_viewer.ros1.launch
네트워크 모델: YOLO v4
사용 데이터셋: COCO, Custom(kiz, const, noway)
COCO의 경우 Convert2Yolo 라이브러리 -> jpg, annotation, cfg, manifest얻음
Custom의 경우 crawling, labelling, augmentation으로 png 얻고 annotation, cfg, manifest 직접 만듬
학습은 darknet 라이브러리 -> 2일동안 돌려서 iteration 27500정도, coco loss 8(덜학습), custom loss 0.11(굳) 으로 weights 얻음
validation 테스트는 usb_cam으로 -> coco, custom 모두 정확도 높게 객체 검출 완료
발표자료: https://drive.google.com/file/d/1ml0HHVv4AUprgx0aOCAvh1nqgXNC9IXK/view?usp=sharing