日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人工智能 > 目标检测 >内容正文

目标检测

Autoware-激光雷达目标检测与跟踪

發(fā)布時(shí)間:2023/12/31 目标检测 45 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Autoware-激光雷达目标检测与跟踪 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

記錄一下自己常用的檢測(cè)方法

?----------------------------------------------

2022.9.9更新

突然發(fā)現(xiàn)沒發(fā)跟蹤部分,對(duì)原博再修改一下

完結(jié)撒花

-------------------------------------------------------

一、傳統(tǒng)方法

使用

特別要注意:輸入的topic

1.播放數(shù)據(jù)包:雷達(dá)的topic必須為/points_raw

2.voxel_grid_filter:對(duì)原始點(diǎn)云進(jìn)行降采樣

3.ray_ground_filter:對(duì)降采樣后的點(diǎn)云進(jìn)行點(diǎn)云地面過濾,將地面點(diǎn)和非地面點(diǎn)進(jìn)行分離

4.lidar_euclidean_cluster_detect:對(duì)非地面點(diǎn)進(jìn)行聚類

5.imm_ukf_pda_track:基于交互式多模型、無跡卡爾曼濾波、概率數(shù)據(jù)關(guān)聯(lián)的跟蹤算法


voxel_grid_filter

Points topic:輸入點(diǎn)云話題,選擇/points_raw

Voxel Leaf Size:濾波時(shí)創(chuàng)建的體素大小為0.1m的立方體。過大的Leaf Size雖然會(huì)使速度變快,但聚類的結(jié)果會(huì)相對(duì)變差,尤其是對(duì)于反射較為微弱的物體(如遠(yuǎn)處的行人)

Measurement Range:濾波范圍


ray_ground_filter

input_point_topic:輸入點(diǎn)云話題,選擇voxel_grid_filter發(fā)布的/filtered_points

sensor_height:激光雷達(dá)高度

clipping_height:裁剪高度,例如裁剪1.28m以上部分(以雷達(dá)為原點(diǎn)

min_point_distance:最近的點(diǎn)云距離,1.85代表過濾掉1.85m范圍內(nèi)的點(diǎn)云,為了消除車身自身的雷達(dá)反射的影響

radial_divider_angle:distance in rads between dividers

concentric_divider_distance:distance in meters between concentric divisions

local_max_slope:同條射線上臨近兩點(diǎn)的坡度閾值(單位:度)

general_max_slope:整個(gè)地面的坡度閾值(單位:度)

min_height_threshold:最小高度閾值

reclass_distance_threshold:重新分類點(diǎn)之間的距離


lidar_euclidean_cluster_detect

use_gpu:是否使用GPU

output_frame:輸出坐標(biāo)系

pose_estimation:使用最小面積邊界矩形估計(jì)簇的姿態(tài) Estimate the pose of the cluster using a minimum-area bounding rectangle

downsample_cloud:pointcloud downsampling via VoxelGrid filter

input_points_node:輸入點(diǎn)云topic,選擇/points_no_ground

leaf size:下采樣體素網(wǎng)格大小

cluster size minimum:聚類的最少點(diǎn)數(shù)

cluster size maximum:聚類的最多點(diǎn)數(shù)

clustering distance:聚類公差(m)

clip_min_height:裁剪的最小高度

clip_max_height:裁剪的最大高度

use_vector_map:是否使用矢量地圖

vectormap_frame:矢量地圖坐標(biāo)系

wayarea_gridmap_topic

wayarea_gridmap_layer(面板寫錯(cuò)了):

wayarea_no_road_value

remove_points_upto:Points closer than this distance to the lidar will be removed

keep_only_lanes_points:side-filtering

keep_lane_left_distance:Remove points further than this distance to the left (m)

keep_lane_right_distance:Remove points further than this distance to the right (m)

cluster_merge_threshold:聚類簇間的距離 Distance between cluster centroids (m)

use_multiple_thres:use of distance-based clustering tolerances 基于距離的聚類

clustering_ranges:Distance from lidar (m)

clustering_distances:聚類公差 Clustering tolerances (m)

remove ground:ground plane filtering (removes points belonging to the ground)

use_diffnormals: Difference-of-Normals filtering

publisher filtered


imm_ukf_pda_track

inout topic:輸入話題

tracking frame:跟蹤坐標(biāo)系

vectormap frame:矢量地圖坐標(biāo)系

life time thres:對(duì)象關(guān)聯(lián)變量,跟蹤對(duì)象存活次數(shù)的閾值

gating thres:概率數(shù)據(jù)關(guān)聯(lián)參數(shù),一個(gè)匹配用的閾值

gate probability:概率數(shù)據(jù)關(guān)聯(lián)參數(shù),在IMM更新運(yùn)動(dòng)模型會(huì)用到

detection probability:概率數(shù)據(jù)關(guān)聯(lián)參數(shù),在IMM更新運(yùn)動(dòng)模型會(huì)用到

static velocity thres:靜止速度閾值,小于這個(gè)閾值可視為靜止

static num history thres:靜止次數(shù)

prevent explosion thres:防止ukf參數(shù)爆炸的閾值

lane direction chi thres:使用矢量地圖需要設(shè)置的參數(shù)

nearest lane distance thres:使用矢量地圖需要設(shè)置的參數(shù)

merge_distance_threshold:合并兩個(gè)錨點(diǎn)的距離閾值,小于這個(gè)閾值可合并點(diǎn)

use_sukf:是否使用比例無跡卡爾曼濾波算法

use_vectormap:是否使用矢量地圖

?


效果

?節(jié)點(diǎn)關(guān)系圖


單獨(dú)使用

lidar_euclidean_cluster_detect

效果圖(不是很好)

節(jié)點(diǎn)圖


二、深度學(xué)習(xí)方法

以lidar_cnn_baidu_detect為例

準(zhǔn)備

1.首先打開 autoware.ai/src/autoware/core_perception/lidar_apollo_cnn_seg_detect/README.md

安裝caffe

2.安裝完成后,刪除build install log文件夾,然后重新編譯

編譯完成后打開log文件夾查看編譯結(jié)果,可以查看CUDA等模塊是否安裝成功

出現(xiàn)100%說明編譯成功并且該模塊可用

3.從Apollo官網(wǎng)下載預(yù)訓(xùn)練模型到autoware.ai/src/autoware/core_perception/lidar_apollo_cnn_seg_detect/models

4.代碼直接使用會(huì)報(bào)錯(cuò)

參考鏈接

可按這個(gè)鏈接下載這個(gè)代碼覆蓋autoware里的代碼鏈接

?使用


lidar_cnn_baidu_detect

image_src:輸入點(diǎn)云

Score Threshold:分類閾值,當(dāng)識(shí)別的得分大于0.7時(shí)可認(rèn)為是這個(gè)類別

network_definition:網(wǎng)絡(luò)定義

pre_trained_model:預(yù)訓(xùn)練模型

use_gpu:是否使用gpu

gpu_device_id:gpu id

效果

節(jié)點(diǎn)關(guān)系圖

當(dāng)顯卡內(nèi)存不足時(shí)會(huì)出現(xiàn)這種情況,考慮換個(gè)顯卡

總結(jié)

以上是生活随笔為你收集整理的Autoware-激光雷达目标检测与跟踪的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。