2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩136頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、立體視覺作為計(jì)算機(jī)視覺的一個(gè)重要研究方向,以一個(gè)或多個(gè)相機(jī)從不同空間位置獲取同一三維場景中的多幅二維圖像,通過立體匹配計(jì)算任意兩幅圖像的像素位置偏差來獲取該場景的三維信息,以此重建場景中三維物體的外部形狀和空間位置,來模擬人類雙眼感知外界三維環(huán)境的能力。由于立體視覺在航天航空,工業(yè)生產(chǎn),軍事應(yīng)用和游戲產(chǎn)業(yè)等領(lǐng)域的廣泛應(yīng)用前景,以及在實(shí)際應(yīng)用中存在的諸多技術(shù)難題,目前立體視覺依然是計(jì)算機(jī)視覺領(lǐng)域的熱門研究方向之一。針對(duì)典型三維精確測量應(yīng)用

2、的特殊需求,本文圍繞立體視覺應(yīng)用中的相機(jī)內(nèi)參數(shù)標(biāo)定,相機(jī)外參數(shù)標(biāo)定,立體匹配算法、三維精確測量中的定量誤差分析等重點(diǎn)與難點(diǎn)問題,開展了系統(tǒng)深入的研究工作。
  本研究主要內(nèi)容包括:⑴針對(duì)大多數(shù)實(shí)驗(yàn)室環(huán)境下的相機(jī)內(nèi)參數(shù)標(biāo)定算法過于依賴高精度標(biāo)定設(shè)備而導(dǎo)致標(biāo)定成本高昂的問題,我們提出一種不需要高精度標(biāo)定設(shè)備就可以對(duì)相機(jī)內(nèi)參數(shù)進(jìn)行標(biāo)定的標(biāo)定模型及實(shí)現(xiàn)算法。標(biāo)定模型從傳統(tǒng)的相機(jī)標(biāo)定模型出發(fā),逐步考慮相機(jī)畸變因素,平行光管的安裝誤差,相機(jī)和

3、轉(zhuǎn)臺(tái)的安裝誤差,CCD平面的安裝誤差等并對(duì)標(biāo)定模型進(jìn)行完善。算法的標(biāo)定過程分兩個(gè)階段,先根據(jù)誤差最小原理解算出相機(jī)參數(shù)的初值,再用非線性優(yōu)化理論得出最終的參數(shù)標(biāo)定結(jié)果。計(jì)算機(jī)模擬和實(shí)際數(shù)據(jù)驗(yàn)證的結(jié)果均說明我們的相機(jī)標(biāo)定方法有很好的精度和穩(wěn)定性。在多CCD相機(jī)拼接成像系統(tǒng)中的有效應(yīng)用也證明了算法的有效性和實(shí)用價(jià)值。⑵針對(duì)大視場監(jiān)控環(huán)境下僅有少量控制點(diǎn)可用于快速標(biāo)定相機(jī)姿態(tài)的應(yīng)用需求,提出了一種只用一個(gè)控制點(diǎn)來實(shí)時(shí)標(biāo)定兩自由度轉(zhuǎn)臺(tái)相機(jī)兩個(gè)旋

4、轉(zhuǎn)角的新方法。為了適應(yīng)單個(gè)控制點(diǎn)的在線標(biāo)定環(huán)境,我們?cè)陔x線環(huán)境下標(biāo)定兩自由度轉(zhuǎn)臺(tái)相機(jī)內(nèi)參數(shù)和安裝位置,然后在線階段通過求解相機(jī)模型的二次方程來標(biāo)定相機(jī)的兩個(gè)姿態(tài)角。所提出的相機(jī)標(biāo)定方法并沒有迭代優(yōu)化和特征點(diǎn)提取匹配過程,因而具有更好的時(shí)間效率。通過計(jì)算機(jī)模擬和實(shí)際數(shù)據(jù)檢驗(yàn),證明了所提出的單點(diǎn)標(biāo)定算法與當(dāng)前主流的復(fù)雜標(biāo)定算法具有相同量級(jí)的精度。⑶在對(duì)點(diǎn)基元匹配算法的分析基礎(chǔ)上,考慮到半全局搜索算法的高效性,提出了一種基于區(qū)塊編碼的半全局立

5、體匹配算法。為了降低匹配算法的復(fù)雜度,我們對(duì)圖像進(jìn)行分塊處理,然后分別對(duì)每個(gè)區(qū)塊進(jìn)行直方圖統(tǒng)計(jì)編碼和梯度方向編碼,用編碼后的八位信息進(jìn)行匹配。匹配階段采用半全局動(dòng)態(tài)規(guī)劃算法,從十六個(gè)方向上找到最優(yōu)的匹配點(diǎn),獲得區(qū)塊視差圖。對(duì)視差圖中存在的邊界效應(yīng),我們用雙線性插值計(jì)算區(qū)塊內(nèi)各個(gè)像素點(diǎn)的視差,得到最終的匹配視差圖。最后我們將算法應(yīng)用到公用圖像數(shù)據(jù)庫上,與主流的匹配算法進(jìn)行對(duì)比,驗(yàn)證了其精度和效率。⑷針對(duì)實(shí)際應(yīng)用場景中三維測量的誤差分析難度

6、大,通常難以直觀獲取分析結(jié)果的問題,提出了一種基于解析幾何理論的方法來分析多種傳統(tǒng)誤差源對(duì)三維測量結(jié)果的影響。由于直接分析各種傳統(tǒng)的誤差來源非常復(fù)雜,我們通過旋轉(zhuǎn)變換的方法將所有輸入?yún)?shù)歸納化簡為五個(gè)。接著使用求交模型中的快速中點(diǎn)法推導(dǎo)出輸入?yún)?shù)和三維測量結(jié)果之間的數(shù)學(xué)表達(dá)式,得到帶誤差的三維測量結(jié)果的期望和方差矩陣。然后將原始參數(shù)代入到模型中進(jìn)行分析,從而完成從輸入?yún)?shù)到三維測量結(jié)果的整個(gè)誤差傳播過程。最后通過大量實(shí)驗(yàn)驗(yàn)證該誤差分析方

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論