五月天青色头像情侣网名,国产亚洲av片在线观看18女人,黑人巨茎大战俄罗斯美女,扒下她的小内裤打屁股

歡迎光臨散文網 會員登陸 & 注冊

【開源代碼】首個利用神經網絡能夠明確推斷VIO中 IMU bias演化的方法

2023-01-03 09:55 作者:計算機視覺life  | 我要投稿

以下內容來自從零開始機器人SLAM知識星球 每日更新內容

點擊領取學習資料 → 機器人SLAM學習資料大禮包

#論文##開源代碼# ?Deep IMU Bias Inference for Robust Visual-Inertial Odometry with Factor Graphs

論文地址:https://arxiv.org/abs/2211.04517

作者單位:牛津大學

開源代碼:https://github.com/ori-drs/allan_variance_ros

??視覺慣性里程計(VIO)是最成熟的移動平臺狀態(tài)估計方法之一。然而,當視覺跟蹤失敗時,由于慣性數據過程中的快速誤差積累,VIO 算法會迅速發(fā)散。該誤差通常被建模為加性高斯噪聲和緩慢變化的偏差的組合,該偏差演變?yōu)殡S機游走。在這項工作中,我們提出訓練一個神經網絡來學習真正的bias。我們實現并比較了兩種常見的順序深度學習架構:LSTM 和 Transformer。我們的方法遵循最近基于學習的慣性估計器,但是,我們沒有學習運動模型,而是明確地針對 IMU 偏差,這使我們能夠推廣到訓練中看不到的運動模式。我們表明,我們提出的方法在四足機器人、步行人類和無人機的各種運動中改善了視覺挑戰(zhàn)性情況下的狀態(tài)估計。我們的實驗表明,漂移率平均降低了 15%,當完全視力喪失時,降低幅度更大。重要的是,我們還證明了用一種運動模式(人類步行)訓練的模型可以應用于另一種(四足機器人小跑)而無需重新訓練。

本文貢獻如下:

1、一種能夠從測量和bias中估計 IMU ?bias的神經網絡。據作者所知,這是第一種能夠明確推斷 IMU bias演化的方法。

2、兩種不同網絡實現(LSTM 和 Transformer)的性能比較以及它們作為一元因素集成到基于狀態(tài)估計器的在因子圖上,用于在視覺上具有挑戰(zhàn)性的場景中改進估計。

3、在具有不同類型運動的三個不同平臺上的真實世界實驗:行人手持設備、四足機器人和無人機。據作者所知,這是第一個展示 IMU 學習模型在一種運動方式上訓練并在另一種方式上進行測試的工作(手持到四足)。

圖片

圖片

圖片

圖片

圖片

圖片

以上內容來自從零開始機器人SLAM知識星球 每日更新內容


本文使用 文章同步助手 同步

【開源代碼】首個利用神經網絡能夠明確推斷VIO中 IMU bias演化的方法的評論 (共 條)

分享到微博請遵守國家法律
那坡县| 图木舒克市| 梓潼县| 襄城县| 泸州市| 商河县| 象州县| 汶川县| 久治县| 房产| 马关县| 寿阳县| 岑巩县| 隆子县| 新野县| 道真| 西畴县| 台江县| 乌兰县| 治多县| 古浪县| 蓬莱市| 内乡县| 建阳市| 同心县| 浦县| 林州市| 通许县| 永川市| 罗甸县| 庄河市| 古田县| 邻水| 山东省| 宝鸡市| 曲阳县| 锦屏县| 玉林市| 阜新市| 万年县| 喀喇|