欧洲成人午夜精品无码区久久_久久精品无码专区免费青青_av无码电影一区二区三区_各种少妇正面着bbw撒尿视频_中文精品久久久久国产网址

首頁 > 期刊 > 自然科學(xué)與工程技術(shù) > 信息科技 > 自動化技術(shù) > 機(jī)器人 > 基于循環(huán)卷積神經(jīng)網(wǎng)絡(luò)的單目視覺里程計 【正文】

基于循環(huán)卷積神經(jīng)網(wǎng)絡(luò)的單目視覺里程計

陳宗海; 洪洋; 王紀(jì)凱; 葛振華 中國科學(xué)技術(shù)大學(xué)自動化系; 安徽合肥230027
  • 卷積lstm
  • 循環(huán)卷積神經(jīng)網(wǎng)絡(luò)
  • 單目視覺里程計
  • 無監(jiān)督學(xué)習(xí)

摘要:提出了一種基于卷積長短期記憶(LSTM)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)的單目視覺里程計方法,命名為LSTMVO(LSTM visual odometry).LSTMVO采用無監(jiān)督的端到端深度學(xué)習(xí)框架,對單目相機(jī)的6-DoF位姿以及場景深度進(jìn)行同步估計.整個網(wǎng)絡(luò)框架包含位姿估計網(wǎng)絡(luò)以及深度估計網(wǎng)絡(luò),其中位姿估計網(wǎng)絡(luò)是以端到端方式實現(xiàn)單目位姿估計的深度循環(huán)卷積神經(jīng)網(wǎng)絡(luò)(RCNN),由基于卷積神經(jīng)網(wǎng)絡(luò)的特征提取和基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的時序建模組成,深度估計網(wǎng)絡(luò)主要基于編碼器和解碼器架構(gòu)生成稠密的深度圖.同時本文還提出了一種新的損失函數(shù)進(jìn)行網(wǎng)絡(luò)訓(xùn)練,該損失函數(shù)由圖像序列之間的時序損失、深度平滑度損失和前后一致性損失組成.基于KITTI數(shù)據(jù)集的實驗結(jié)果表明,通過在原始單目RGB圖像上進(jìn)行訓(xùn)練,LSTMVO在位姿估計精度以及深度估計精度方面優(yōu)于現(xiàn)有的主流單目視覺里程計方法,驗證了本文提出的深度學(xué)習(xí)框架的有效性.

注:因版權(quán)方要求,不能公開全文,如需全文,請咨詢雜志社

投稿咨詢 文秘咨詢

機(jī)器人

  • 預(yù)計1-3個月 預(yù)計審稿周期
  • 1.13 影響因子
  • 計算機(jī) 快捷分類
  • 雙月刊 出版周期

主管單位:中國科學(xué)院;主辦單位:中國自動化學(xué)會;中國科學(xué)院沈陽自動化研究所

我們提供的服務(wù)

服務(wù)流程: 確定期刊 支付定金 完成服務(wù) 支付尾款 在線咨詢