發布時間:2022-03-21所屬分類:科技論文瀏覽:1次
摘 要: 摘要: 針對衛星天線模塊自動化精密裝配需求,介紹一種基于機器視覺的機器人自動精密裝配方法。通過 6 自由度工業機器人和相機建立 Eye-in-Hand 和 Eye-to-Hand 混合的自動裝配系統,對系統進行手眼標定,從而確定相機、機器人、工具之間的相互位置關系,通過圖像處理獲
摘要: 針對衛星天線模塊自動化精密裝配需求,介紹一種基于機器視覺的機器人自動精密裝配方法。通過 6 自由度工業機器人和相機建立 Eye-in-Hand 和 Eye-to-Hand 混合的自動裝配系統,對系統進行手眼標定,從而確定相機、機器人、工具之間的相互位置關系,通過圖像處理獲取裝配位置像素坐標,并通過坐標變換將像素坐標點轉換為機器人基坐標點,控制機器人完成天線模塊自動裝配。裝配時通過 Eyeto-Hand 和 Eye-in-Hand 系統分別直接定位天線模塊上連接器公頭和母頭位置,消除連接器安裝位置誤差和模塊外殼加工尺寸誤差對定位精度的影響,該系統通過一次標定即可實現機器人末端工具在距目標物體垂直距離相同情況下 X /Y 任意位置的定位功能。實驗結果證明該方法準確可行,所設系統滿足 50 μm 裝配公差天線模塊的自動精密裝配要求。
關鍵詞: 機器視覺; 目標定位; 手眼標定; 衛星天線裝配; 機器人
衛星天線作為星間鏈路核心裝備,具有裝配尺寸精度高、星載模塊小巧緊湊、裝配工序煩瑣等特點[1],因此,現階段主要采用人工進行裝配,裝配精度及一致性差,產品質量難管控[2]。隨著近幾年國內外衛星部署戰略的不斷推進,衛星需求數量不斷增加,衛星制造逐步由單件生產模式向批量生產模式發展[3],傳統手工裝配方式無論從質量上還是效率上均無法滿足要求,因此亟需將自動精密裝配技術引入到衛星等航天產品的裝調過程中,以提高產品的裝配質量和效率。
目前,國外衛星天線裝配基本實現自動化、數字化,其中 Orbital ATK 公司建造的一條具有 18 個工作站的衛星生產線,實現了一周裝配一顆衛星的生產水平[4]。國內主要針對部分特定型號天線進行了自動化裝配嘗試,但設備普遍具有通用性低、操作煩瑣、柔性差等不足[5 - 6]。在自動化精密裝配方面,目前基于機器視覺的工業機器人自動裝配系統大多為 Eye-toHand [7 - 8]系統,應用于工件抓取一致性好或裝配目標點不變的情況下[9 - 10]。另外,為保證裝配精度等因素,系統中執行機構多選用直角坐標機器人或 SCARA 機器人[11],降低了系統的靈活性以及角度調節能力。文獻[12]將深度學習方法引入到機器人物體識別與抓取中,該方法適用于復雜場景中的物體識別與抓取,但定位精度和成功率較低,目前在工業現場工件精密裝配場景中還未廣泛應用。文獻[13]針對衛星大型部件裝配提出一種基于力 - 位混合控制的機械臂輔助裝配方法,在工件接觸后通過力 - 位關系實時對工件位置進行調整,該方法需針對每種產品摸索其對應的力 - 位關系曲線,要求系統具有較高的實時性,裝配耗時較長。文獻[14]提出一種基于數據配準的工件配合表面最佳接觸狀態確定方法,該方法在裝配前需要獲取工件精確的三維模型,裝配時需要實時獲取工件的相對位置關系,不適合于接觸面復雜的細針孔類工件的裝配,且成本高、效率低。文獻[15]提出了基于 6 自由度機器人和激光跟蹤儀的閉環控制裝配系統,該系統定位精度高,但在裝配前需要人工放置靶標,在運行過程中需要根據產品尺寸合理規劃運動路徑、考慮遮擋及測量范圍等因素,因此操作煩瑣,通用性差。
本文對基于機器視覺[16 - 17]的 6 自由度機器人自動裝配技術進行了研 究,針對相控陣天線 T /R 模塊[18]裝配精度高、尺寸一致性差等特點,建立了 Eyein-Hand [19]和 Eye-to-Hand [7]混合的自動裝配系統,兩系統共用同一臺六軸工業機器人,通過像素坐標系、相機坐標系、工具坐標系、機器人基坐標系之間的相互轉換,實現系統整體坐標系統一。裝配過程中,通過工業相機獲取工件圖像,通過 OpenCV 開源庫[20]對圖像進行分析處理從而確定工件在像素坐標系中的位置坐標,利用坐標變換將像素坐標轉換為機器人基坐標,并將坐標信息發送給機器人控制器,機器人手臂執行裝配動作,并最終在 Visual Studio 2013 平臺下完成對整套系統控制軟件程序的開發。
1 系統總體設計
天線模塊 A 和模塊 B 外表如圖 1 所示,裝配時需將模塊 A 通過連接器裝配到模塊 B 上。
裝配系統硬件平臺如圖 2 所示,機器人和相機Ⅱ 固定安裝在基座平臺上,相機Ⅰ和抓取工具安裝在機器人末端法蘭盤上,天線模塊通過托盤在傳送鏈上運送到指定位置后,通過相機拍照并進行圖像處理獲取模塊 A、模塊 B 的像素位置坐標,然后通過坐標變換將像素坐標轉換為機器人坐標位置,最終機器人抓取模塊 A 并將其裝配到模塊 B 上。由于連接器在模塊上的安裝存在位置誤差及模塊外殼加工存在尺寸誤差,因此在裝配時通過相機Ⅱ對抓起后的模塊 A 進行定位,通過相機Ⅰ對模塊 B 進行定位,定位位置均直接為連接器中心。
系統模型如圖 3 所示,其中相機Ⅰ與機器人、末端工具組成 Eye-in-Hand 系統,相機Ⅱ與機器人、末端工具組成 Eye-to-Hand 系統,模塊 A 和模塊 B 為待裝配的天線部件。Cbase為機器人基坐標系,Ctool為機器人末端工具坐標系,CcamⅠ 和 CcamⅡ 分別為相機Ⅰ和相機Ⅱ 的相機坐標系,CpixⅠ和 CpixⅡ分別為相機Ⅰ和相機Ⅱ的像素坐標系,CworldⅠ和 CworldⅡ分別為相機Ⅰ和相機Ⅱ標定時的世界坐標系。
系統裝配過程及坐標變換如下。
首先機器人帶動相機Ⅰ移動到模塊 A 上方對其進行拍照以確定抓取位置。通過圖像處理獲取模塊 A 在 CpixⅠ中的坐標 PPartA_Up_In_PixⅠ; 對 PPartA_Up_In_PixⅠ 進行坐標變換得到模塊 A 在 CcamⅠ下的坐標 PPartA_Up_In_CamⅠ; 通過 PPartA_Up_In_CamⅠ 和相機Ⅰ在 Ctool 下的坐標 PCamⅠ_In_Tool 可以得到模塊 A 在 Ctool 下的坐標 PPartA_Up_In_Tool ; 通過 PPartA_Up_In_Tool 和機器人末端工具在 Cbase 下 的 坐 標 PTool_In_Base 可 以 得 到 模 塊 A 在 Cbase 下 的 坐 標 PPartA_Up_In_Base ; 通過 PPartA_Up_In_Base即可控制機器人移動到目標點 PRobot_Aim_Catch對模塊 A 進行抓取。
機器人抓取模塊 A 后移動到相機Ⅱ上方對其底端連接器進行拍照以確定模塊 A 的裝配位置。通過圖像處理獲取模塊 A 在 CpixⅡ中的坐標 PPartA_Down_In_PixⅡ; 對 PPartA_Down_In_PixⅡ進行坐標變換得到模塊 A 在 CcamⅡ 下的坐標 PPartA_Down_In_CamⅡ; 通過 PPartA_Down_In_CamⅡ 和相機Ⅱ 在 Cbase下的坐標 PCamⅡ_In_Base可以得到模塊 A 的裝配點在基坐標系下的坐標 PPartA_Down_In_Base。
確定模塊 A 的裝配位置后,機器人帶動相機Ⅰ移動到模塊 B 上方對其連接器進行拍照以確定模塊 B 的裝配位置,坐標轉換過程與確定模塊 A 抓取位置相同,最終得到模塊 B 在 Cbase下的坐標 PPartB_In_Base。根據 PPartB_In_Base和 PPartA_Down_In_Base 控制機器人移動到目標點 PRobot_Aim_Assem對模塊 A 和模塊 B 進行裝配。
上 述 坐 標 變 換 過 程 如 圖 4 所 示。 其 中 PPartA_Up_In_PixⅠ 到 PPartA_Up_In_CamⅠ、 PPartA_Down_In_PixⅡ 到 PPartA_Down_In_CamⅡ及 PPartB_In_PixⅠ 到 PPartB_In_CamⅠ 的變換可通過相機內外參標定實現; PTool_In_Base可通過機器人工具標定獲得,PCamⅠ_In_Tool可通過 Eye-in-Hand 系統標定獲得; PCamⅡ_In_Base可通過 Eye-to-Hand 系統標定獲得。
2 天線模塊圖像處理與位置識別
天線模塊圖像處理主要是確定連接器中心位置像素坐標,圖像處理過程包括顏色空間轉換、閾值分割、區域連通、邊緣提取、圓擬合、直線擬合、求取中心點等。
以天線模塊 A 為例,待處理圖像如圖 5 所示,通過連接器中 15 根插針確定模塊位置。
首先對圖像進行預處理,在原圖上粗略截取感興趣區域( Region Of Interest,ROI) ,然后將 ROI 由 RGB 空間轉換到 HSV( Hue,Saturation,Value) 空間,并對特征明顯的 S 通道圖像進行閾值分割,分割時采用動態閾值分割法以減小光線變化的影響。對閾值分割后的圖像進行開運算以及膨脹等形態學操作以消除微小噪聲并填充輪廓區域,對輪廓進行篩選后可得到連接器區域,圖像預處理過程如圖 6 所示。
相關知識推薦:論文重復率0好發表嗎
以得到的連接器區域為蒙版在原圖 G 通道上截取精確的 ROI 區域,并對該區域進行銳化以強化特征,對銳化后的圖像進行基于 Canny 算子的亞像素輪廓提取,并對輪廓進行篩選最終可得到 15 根插針的外形輪廓,對輪廓進行圓擬合可得到 15 組輪廓中心坐標,通過坐標平均即可計算出連接器中心位置像素坐標,通過 15 組坐標數據進行最小二乘直線擬合即可得到連接器角度,圖像處理過程如圖 7 所示。
3 坐標系標定及轉換
3. 1 相機內外參標定
首先進行相機內外參標定以對相機進行校準,其 標定模型[21]如圖 8 所示,先通過標定板上已知點確定相機的內參數( 焦距、主點、比例因子、畸變系數等) 和外參數( 平移參數和旋轉參數) ,然后即可通過內外參數確定像素坐標系下任意點 P'與其在世界坐標系下對應點 P 的坐標轉換關系[22]:
相機Ⅰ標定時各部分相對位置關系如圖 9 所示,標定板固定在平臺上,機器人帶動相機Ⅰ對標定板進行拍照獲取圖像進行標定。
為保證標定的準確性,應盡量控制機械臂帶動相機以不同姿態對標定板進行拍照,每幅圖像中標定板圖像一般占整幅圖像的 1 /3 左右[23],并最終使標定板覆蓋整幅圖像,標定圖像如圖 10 所示,標定結果如表 1、表 2 所示,標定誤差( 角點重投影誤差) 為 0. 1937 px。
相機Ⅱ標定時各部分相對位置關系如圖 11 所示,標定板固定在機器人末端,機器人帶動標定板運動到不同位姿,相機Ⅱ對標定板進行拍照獲取圖像進行標定。標定結果如表 3、表 4 所示,標定誤差( 角點重投影誤差) 為 0. 1583 px。
3. 2 六軸機器人末端工具標定
機器人工具標定模型[24]如圖 12 所示,末端工具標定的目的即為確定工具坐標系到機器人基坐標系的轉換關系。
3. 3 手眼標定
機器視覺系統手眼標定的目的是為了獲取相機坐標系與機器人坐標系之間的轉換關系。通常根據相機與機器人之間的位置關系不同可將機器人視覺系統分為 Eye-in-Hand 系 統 和 Eye-to-Hand 系 統[26]。其 中, Eye-in-Hand 系統是將相機固定在機器人法蘭盤末端,工作時相機隨機器人一起運動; Eye-to-Hand 系統是將相機安裝固定在機器人本體外,工作時相機不隨機器人運動[27]。在機器人移動過程中,Eye-in-Hand 系統中相機坐標系相對于機器人末端法蘭坐標系( 或機器人工具坐標系) 的位置關系是不變的,Eye-to-Hand 系統中相機坐標系相對于機器人基坐標系的位置關系是不變的,這是進行手眼系統標定的重要依據。
3. 3. 1 Eye-in-Hand 系統標定
Eye-in-Hand 系統手眼標定模型[28]如圖 14 所示,其中 Cbase為機器人基坐標系,Ctool為機器人末端工具坐標系,Ccam為相機坐標系,Cobj為標定板坐標系。
標定時,標定板固定不動,控制機器人帶動相機運動到不同位姿對標定板進行拍照,每次標定出當前位姿下相機與標定板的位置關系( 相機外參數) ,同時根據機器人末端工具的位姿最終計算得到相機坐標系到機器人末端工具坐標系的變換矩陣,其中機器人末端工具的位姿可通過機器人六點工具標定獲得。機器人運動前后相機坐標系、末端工具坐標系及標定板坐標系相對位置變化如圖 15 所示。
4 結束語
本文介紹的基于機器視覺的衛星天線模塊自動精密裝配技術,完成了相機內外參標定、機器人末端工具標定、Eye-in-Hand 系統手眼標定、Eye-to-Hand 系統手眼標定,根據采集到的圖像信息,經過圖像處理和坐標變換得到機器人的目標位姿,并通過以太網將數據傳輸到機器人控制系統,實現了對天線模塊的自動精密裝配。經實驗驗證,系統滿足 50 μm 裝配公差天線模塊的自動精密裝配要求,實驗結果達到預期要求,且該技術已成功應用于航天領域高精密復雜衛星產品的自動化裝配中,由此證明所提出的基于機器視覺的衛星天線模塊自動精密裝配技術具有較強的實用價值。——論文作者:閆俊杰,王紅偉,于功敬,張忠海
參考文獻:
[1] 常文凱,胡龍飛,陳冬宇,等. 有源相控陣雷達天線結構設計[J]. 機械與電子,2019,37( 7) : 33 - 37.
[2] 呂鵬,范乃康,李成國,等. 星載模塊式相控陣天線整機集成裝置設計[C]/ / 2019 年全國天線年會論文集( 中冊) . 2019.
[3] 付佐紅. 自動化技術在衛星天線高精度裝配中的運用探討[J]. 科技創新導報,2020,17( 3) : 125 - 126.
[4] 趙相禹. 衛星智能化裝配系統 發展現狀及關鍵技術[J].國際太空,2020( 3) : 59 - 63.
[5] 黎田,胡曉雪,姚為,等. 機器人在航天裝備自動化裝配中的應用研究[J]. 航空制造技術,2014( 21) : 102 - 104.
[6] 魏樂愚,楊宏青,榮田. 自動對接裝配技術在航天產品對接裝配中的應用研究[J]. 航天制造技術,2011( 5) : 42 - 44.
[7] ANDREFF N,HOROUD R,ESPIAU B. Robot hand-eye calibration using structure-from-motion[J]. The International Journal of Robotics Research,2001,20( 3) : 228 - 248.
[8] TABB A,YOUSEF K M A. Solving the robot-world hand-eye ( s) calibration problem with iterative methods[J]. Machine Vision and Applications,2017,28( 5 /6) : 569 - 590.
[9] WANG W Q,LUO Y,YANG K,et al. Multi-angle automotive fuse box detection and assembly method based on machine vision[J]. Measurement,2019,145: 234 - 243.
[10] 劉曉鵬,劉波,馬自超,等. 基于機器視覺的遙控器裝配系統研究與設計[J]. 自動化儀表,2017,38 ( 11) : 92 - 95
[11] 張明建,曾偉明. 基于機器視覺的小型電機自動裝配研究[J]. 制造技術與機床,2017( 6) : 124 - 128.
[12] VIJAYAN A T,SANKAR A,SUDHEER A P. A comparative study on the performance of neural networks in visual guidance and feedback applications[J]. Automatika,2017, 58( 3) : 336 - 346.
[13] 劉仁偉,徐曉輝,謝永權,等. 基于機械臂輔助的衛星柔順裝配技術研究[J]. 機電工程,2020,37( 5) : 532 - 536.
[14] 張體廣,張發平,閻艷,等. 基于數據配準的零件精密裝配最佳接觸狀態研究[J]. 兵工學報,2018,39( 1) : 127 - 136.
SCISSCIAHCI