本論文旨在使用傳統的資料處理方式,發展出針對某堆疊工件在場景中點雲的匹配演算法,以判別工件在場景中之位置與姿態。本論文對三維點雲資料進行分析與處理,在數位訊號處理及數據統計的基礎上,先對工件模型的部分點雲進行降採樣、隱藏點去除法(Hidden Point Removal, HPR)及RANSAC (RANdom SAmple Consensus)的平面以及弧面模型擬合,以產生點雲匹配之面特徵。在場景的部分,吾人利用開源軟體Blender將相同工件模型檔案隨意堆疊至平面上,輸出可模擬實際工件堆疊之點雲資料。並用軟體內部的功能,將視野中由上而下所會看到的點雲資料萃取出來,並對其摻加雜訊,進而模擬實際深度相機所會拍攝到的畫面。在實作上,吾人利用第三方函式庫Point Cloud Library (PCL)與C++,對場景進行區域增長法(region growing),將破碎平面萃取出來,並利用模型資料之多個面模型,進行法向量對齊、最近點迭代(Iterative Closest Point, ICP)、旋轉、最近點搜尋與距離評分,再佐以最近點資料分布相似度以及個數,進行加權評分,以判斷出能夠最佳吻合於場景平面的面模型,最後由人為判斷匹配之成功與否。經多次實驗,分析本論文所發展之演算法在不同的雜訊以及場景資料多寡的情況下,匹配的成功率。本演算法也能夠運用在外型簡單的物件如柱狀體或是圓柱體,萃取出物件之平面或弧面的特徵並進行匹配,其匹配成功率可達100%。
