<acronym id="olop1"><th id="olop1"></th></acronym>
<strike id="olop1"><blockquote id="olop1"></blockquote></strike>

<button id="olop1"><xmp id="olop1">

<button id="olop1"><dfn id="olop1"></dfn></button>

<button id="olop1"><dfn id="olop1"></dfn></button>

<button id="olop1"></button>
<strike id="olop1"></strike>

<option id="olop1"></option>
<strike id="olop1"></strike>
<button id="olop1"></button>

400-821-6015
行業資訊
您當前的位置:首頁 ? 行業資訊 ? 行業資訊
內部資訊行業資訊

圓桌干貨 | 行車周視攝像頭和泊車環視攝像頭,未來兩者會一直共存下去么?

發布日期:2023-10-13
      2023年9月22日,在焉知汽車舉辦的汽車視覺創新發展論壇2023上,開展了主題為《行車周視攝像頭和泊車環視攝像頭,未來兩者會一直共存下去么?》的圓桌對話。
      我們有幸邀請到了福瑞泰克首席架構師李帥君、縱目科技感知算法總監吳子章、安霸半導體研發副總裁孫魯毅以及鑒智機器人副總裁兼感知產品線負責人梁柱錦焉知產研負責人陳康成(主持人)一起參與了圓桌討論。

      在該環節,各位嘉賓暢所欲言,分別發表了自己看法與見解。以下內容是焉知汽車在不改變嘉賓原意的基礎上,對核心內容進行提煉,以供業內人士參考。


       一.主持人車企或Tier1在進行周視攝像頭選型時,一般會重點關注哪些指標?如果要支持城市NOA功能,是否配置角雷達,對周視攝像頭的選型是否會產生影響?若有,存在什么樣的影響?

       李帥君:我們是Tier1的角色,關于周視攝像頭選型,我認為主要參考三個方面:硬件光學、穩定性以及算法。
      從硬件光學來講,它是指整個攝像頭的解析力,光學的成像分辨率以及一系列光學顏色的測試,這些都是基礎性能。
      然后,在此之上會要求硬件的穩定性,攝像頭是否已經通過在不同的溫度、震動、機械性能、電子兼容性等條件下的測試項目。
      最后,在算法上,攝像頭模組通常還是要接到后端的域控制器去做感知算法的處理。我們福瑞泰克也做域控,相當于是由我們自己來處理。但我們在考核攝像頭供應商時候,還是會看它是否具備ISP的處理能力。如果具備,那么我們在后端碰到一些ISP相關問題,去跟供應商做相應溝通的時候會更加順暢。

      吳子章:剛才李總說的非常全面,我在李總的基礎上稍做一點補充。對于攝像機的選型,大家在產品需求的差異還是蠻大的。不同的場景(高速/城區/泊車)需求下的理解不同:不同的刷新率和分辨率。另外,我們還需要照顧到遠場和近場的感知,到底希望能感知到什么樣的清晰度,大家會有一些區別。攝像頭選型的時候都會針對這些具體需求進行考量。

      孫魯毅作為芯片廠商,因為我們不直接進行攝像頭選型,我們是支持我們客戶/Tier1來做選型。
     我們主要考慮兩方面:首先,會考慮支持攝像頭需要的性能。如果同時運行多顆攝像頭,需要搭配什么樣的芯片?比如6V5R的行泊一體方案,它所搭配的攝像頭就不能特別多,否則,不僅成本過高,芯片的性能也支撐不了。
對于大算力的芯片而言,如果市場上需要,把周視/環視/前視/后視的攝像頭全部接入進去,問題也不是很大。需要支持攝像頭總的處理能力,包括攝像頭的接入能力,處理的時候不會丟幀(運行比較復雜AI算法的時候,要保證它不會丟幀)等。
      其次,要考慮圖像的質量,因為現在比較明顯的趨勢是車上搭載的攝像頭越來越多,一般會用大算力或者是中等算力 SoC芯片上的ISP進行圖像處理。相對來講,大算力平臺會有更多的資源去做ISP處理。我們也做過一些對比:同樣的CMOS Sensor,如果是用模組端的ISP(還是業界比較有名的ISP)處理,它跟用安霸的SoC芯片上的 ISP做處理得出的結果對比 —— 白天的效果沒有太大的差別,但是在夜晚或者是雨天,差別還是挺大的。利用安霸方案的ISP處理,效果會更好。對于Tier1的意義在于可以用相對便宜的CMOS圖像傳感器達到更貴的CMOS圖像傳感器類似的效果,這主要是從成本的角度考量。

       梁柱錦:前面三位講得很完善,我補充兩點,我們做選型可能會從兩個角度:
       第一個是從硬件適配的層面。當我們要去做攝像頭選型,更具體點就是面向量產的方案選型上 ——選擇哪款攝像頭,需要看它能不能適配當前選擇的域控制器,以及我們適配這款攝像頭需要花的時間和代價是多大,這是前提。如果在這個層面上代價比較大,那我們可能會選擇其它更合適的??傮w來說它能不能滿足我們去做量產的時間點,以及去適配它需要花的時間以及代價是多少,這是非常重要的衡量指標。
       第二就是從功能層面,剛才吳總也講到了。我們到底要去做泊車功能,還是做城區,亦或者是去做高速。我們對于所要識別的物體,以及想要去做的一些任務,其實對攝像頭是有要求的。比如,在城區場景,它需要對更小的目標做監測和識別,這個時候可能對FOV有要求 —— FOV越大,看進去的目標會越多,同時像素越高,就越能識別出更小的物體。當然了,這和域控的選擇也是有很強的相關性。
      總之,關注的核心就兩個點:從硬件角度能不能滿足,以及從功能角度能不能滿足。

       二.主持人:對于側前和側后方向的環境感知,通常有以下三類比較主流且經濟使用的智駕傳感器配置方案:1)配置有環視攝像頭,但無周視攝像頭和角雷達,會用環視攝像頭去實現一些行車輔助功能;2)配置有周視攝像頭,但無環視攝像頭和角雷達,會使用周視攝像頭去實現一些泊車輔助功能;3)配置角雷達,但無環視和周視攝像頭。如何看待這三種不同類型的方案?(不同方案的優劣勢和重點針對的應用場景是什么?)

      梁柱錦:我談兩個層面,對于這三類不同類型的傳感器。我們首先要知道他們的優劣勢在哪里。其次,就是剛才講到的場景問題,是要做行車,還是做泊車。
      我們分析一下三類不同類型的異構傳感器:1)角雷達的優點在于它的測距測速很穩很準,不受天氣環境影響,可全天候工作,但對于對橫向目標敏感度低,如對橫穿車輛檢測效果不佳;還有一些鬼影、靜距離盲區等問題。2)環視攝像頭的優點在于FOV特別大,看到的范圍很廣;3)周視的FOV偏小,但是看得比較遠。
      針對這些特性,我覺得在泊車場景,不需要看太遠,但要盡可能看得進所有的目標,還要識別到空間車位及線車位。在這種情況下,如果只用角雷達,是沒辦法識別車位,因為它沒有語義感知的功能。但用周視攝像頭,處于安裝位置及視角的原因,又看不到近距離的目標及車位。 

      對于行車場景,又要分高速和城區。高速場景需要看得遠。環視攝像頭的缺點就是看不遠 —— 探測距離只有30~50m。周視可以覆蓋更大的范圍,比方說,做高速領航,需要做變道,不同的變道速度對于側后方的感知距離也不一樣。舉個例子,側后方需要看到大于80米左右的距離,才能安全的變道,這也是為什么最早的駕駛員觸發變道功能要求自車車速在60kph以上的原因之一,自車變道速度越低,對于側后方的識別距離要求越高。如果用環視攝像頭,就達不到這個需求。用角雷達的問題在于它的噪聲會很多,對于側后方的車輛的橫向位置識別性能不佳,所以就導致了變道的成功率很低。

      所以我總結一下:需要根據傳感器不同特性,以及在不同的應用場景下,系統到底想要具備的功能是什么,然后根據需求去選擇不一樣的傳感器搭配。

       孫魯毅:剛才梁總講的很全面,我稍微補充一點。隨著不同傳感器的技術發展,我覺得一個很明顯的趨勢 —— 視覺的優勢以及發展的潛力比雷達要大。雷達也不是說就不行,只是說視覺的進展會更快。在我看來,隨著視覺傳感器技術的提升,角雷達被拿掉是有可能的。甚至沒有周視攝像頭的情況下,如果前視和后視攝像頭FOV足夠大,便可以覆蓋很大的角度,支持變道等功能。
       做得比較好的環視魚眼攝像頭,其實可以看到30米。30米對于橫向車道的判斷也沒有什么太大問題。在未來,這三種傳感器最有可能被拿掉的是角雷達,但前后雷達的意義比較大則仍會保留,尤其是前雷達。
       如果把周視跟環視比,我不是特別看好周視。周視當然有用,但環視攝像頭天生的大FOV是周視攝像頭無法取代的,特別在泊車場景下完全無法被取代。很多時候看得不夠遠,不是問題;而看不看得清楚才是問題。比如,光線比較差,或者夜晚開車,我們人眼也看不到100米。所以,看不遠不是問題,首要解決是在大視角下可辨識度的問題。
       如果一定要選的話,我覺得這三個傳感器首先被淘汰的是角雷達。隨著技術的發展,周視的地位可能就要受到影響,尤其現在大家做行泊一體,總是在討論能不能干掉周視。

      吳子章:我覺得孫總說得非常好,說出了很多我們從業者的一些經驗和痛點。其實很多同行一直希望用一種傳感器去取代另一種傳感器,并且有很多同行已經做過了試驗和驗證。有一段時間,有些廠商就已經拿4路的周視專門去做泊車的功能,但做了一段時間就不了了之了。
      當然也有一些廠商用環視去做行車場景上的嘗試。環視也有剛才梁總說的一些問題,它的近場感知還可以,但是遠場感知肯定是很難提上來,至少目前還存在成像質量或其它局限性問題,所以兩者在一段時間內可能還是會共存的。兩者在冗余性上面,在當前階段,算法上的冗余會比異構傳感器上的冗余更有意義一些。
      在角雷達的發展過程中,近一兩年的發展確實沒有那么快了,可能它的價格或者說市場競爭已經趨于穩定。在我們看來,激光雷達的降價對角雷達的存在具有一定的挑戰性。隨著補盲激光雷達的引入,它可能會扮演一條“鯰魚”的角色 —— 如果它的作用發揮越來越大,其它傳感器可能就會受到一定的影響。

       李帥君:我補充一點,分別談一下這三類傳感器目前的現狀以及發展中存在的一些不足,最后再講一下我個人對整個趨勢的判斷。
      先說周視攝像頭(特斯拉是最典型的例子),能夠看得比較遠,但是看不到足夠近的目標。原因很簡單,就是FOV不夠大。對于大部分的智駕應用來講,我們其實更需要用周視攝像頭看更近一些的東西,這是它現在的缺陷,需要去彌補的地方。
      其次,對于魚眼攝像頭,基本快成了標準配置,這是一個很好的基礎。有一個容易被大家忽視的地方 —— 環視和周視設計目標不一樣。大部分的魚眼攝像頭是為了泊車而設計,它現在是完全正的向下去安裝,視場角是為看車道線服務的,然而現在有一大半看到的是車的本體,這是沒有意義的。從我們環境感知的目標來看,它應該抬起來一點去看側面更遠的地方。怎樣才能把FOV用得更好一點,可能需要上限能做到靜態環境探測15米左右,運動目標物體探測能做到20~30米。
      最后,角雷達的問題,它的處理比較簡單,非常有用的地方在于對于移動物體感知比較敏感。不足之處在于,如果近處有很多交通參與者,不太容易把他們互相分辨,因為會存在很多噪音。車載毫米波雷達最開始應用于歐洲,原本的設計就是為了應對高速場景。它會對遠距離監測范圍內、有移動速度的物體,容易用相對很小的代價就可以把它區別出來,這是它的優勢。
      對于整體的發展趨勢,雷達和視覺技術都會往前發展,去增強它的感知能力。我非常認同下午豫興電子付總演講中的一個觀點 —— 能用基礎的簡單的方法去解決的,就不要去拼高大上的算法。
      那么,環視和周視攝像頭的FOV或者探測距離不夠,要去發展,其實我覺得要更多的要在鏡頭的設計上去做文章,讓它更充分的去利用視場角去Cover,確保進來的像素都是有效的,是真正感興趣(工作)的范圍,我覺得這是重點。
角雷達用簡單方法能夠對高速的目標產生作用,它就一定有它在感知層面上的意義。當然,我在一定程度上同意在終局的時候,周視以及環視攝像頭可以不用激光雷達和毫米波雷達就可以把所有的場景都覆蓋。但這是一個終局的形態,可能需要5~10年的時間。
      在我們談BEV算法的時候往往忽略掉 —— 它還需要3D真值來訓練。怎么獲得3D真值?車上如果沒有激光雷達,但是有角雷達的時候,它也能給采回來的數據提供很重要的Reference。所以它對提供量產影子模式的真值有一個非常重要的作用,在我們到達終局之前,我認為角雷達一定會存在的。

       三.主持人:以往的一些高端品牌車型中,周視攝像頭大多都采用與前視攝像頭同分辨率的8MP,但是現在很多車型中,周視攝像頭大多開始降為使用2MP。您如何看待這種現象?(是因為這些車型本身的算力、帶寬不足以支持過多的高分辨率攝像頭,還是說對于實現高速/城區NOA等高階智能駕駛功能,2MP的周視攝像頭完全夠用,亦或者是出于成本和性能方面的綜合考量?)

       李帥君:首先我覺得域控中的SoC芯片肯定不是瓶頸,有很大的算力。我覺得更多的還是在應用場景上。周視可能先上,大家最后發現真正極端的case,或者說最應該去解決的是路口斜前方的場景—— 不超過100米的Case。那么,剩下的便是設計多大FOV和多大分辨率的事情。從這個角度出發,再去考慮降低分辨率的事情。但理論上講,還有一種情況是把 FOV設計得很大,并且用很高分辨率,成本上不劃算。
       

       吳子章:從我們的經驗來看,這里存在性價比的問題。系統資源是有限的,4個周視全上8MP攝像頭,勢必要吃掉更多的CPU、顯存以及AI算力。雖然現在有比較強的芯片供應商能提供大算力芯片,但大算力芯片還有很多的工作要做 。一個系統如果承擔了過多的前端任務,后面能夠留下來給其它功能所使用的資源必然是有限的。所以,從系統資源平衡的角度來看,4個8MP周視攝像頭接進來,比之前的2MP或3MP攝像頭能夠帶來多大的增益或者提升,是我們從量產角度需要去考量的一點。
      如果8MP周視攝像頭能夠在遠距離或者說在某些情況下,的確帶來了一定的指標提升,但它的提升也給整個成本帶來了很大的增加,可能就要重新考量這件事情了。
      我們看到的很多同行對8MP攝像頭使用策略有所不同,比如,有的在算力有限的情況下,會從中間選一個ROI區域,然后扣出來。其實就是典型的8MP攝像頭的解決辦法,只解決了一個看遠的問題,因為摳了一塊,遠處的 ROI可能就是有限的,同時也平衡了算力資源有限的問題。
      另外一點,8MP攝像頭本身 ROI也存在一定的距離范圍,FOV和距離相互制肘,所以這個過程當中,它能夠帶來的提升也有限。所以在近一兩年,8MP攝像頭的裝載率也會存在著一定的挑戰。同樣,這跟整個車企都要降本的環境背景也有一定關聯。
      但8MP周視攝像頭的確也是會比之前低分辨率周視攝像頭起到更強的效果。比如,在過路口或者說車的側方有一些Corner case需要去幫助解決的情況下。
      過一兩年,隨著整個市場環境有所緩解,再加上整個攝像頭在成像質量上,或者說在安裝角度上面得到一定程度地提升或改進,并且給我們的整個系統帶來比較好的增益的情況下,8MP周視攝像頭也可能會被重新考量用起來。

      孫魯毅:前面兩位講得都很好。我主要想從以下兩個方面來談一談。首先是數字圖像的領域,另外一個是從算法和算力的領域。
      從數字圖像的領域來講,我覺得大家有時候經常過分的關注于多少像素,而不太關注于多少個好像素(高質量成像)。
      看同時代的傳感器 —— 我們單獨去測SNR(信噪比),是2MP攝像頭好,還是8MP攝像頭好?測下來結果基本是2MP攝像頭好。為啥?因為同時代的技術,簡單來講就是Pixel越大越好?;镜囊貨Q定了8MP攝像頭在白天光線很好的時候,它的SNR比較好。但在夜晚或者光線比較差(下雨或霧天)的時候,它的表現常常不如2MP攝像頭。去測好像素個數,如果挑那種特別low light(低光照)場景,8MP攝像頭的好像素個數甚至都沒有2MP攝像頭的多。
      車載攝像頭的應用解決的是可見度的問題,不僅僅要應對白天光線好的場景,還要應對夜晚以及惡劣天氣下場景。即使是有一個很好的ISP也不能改變CMOS 圖像傳感器產生的數據本來就不行的問題。
      好像素與壞像素,還有一個區別就是動態范圍。同時代的技術里面,動態范圍跟 Pixel大小有很大的關系?,F在隨便一個手機好幾千萬像素,一個稍微老一點的單反,可能就1000多萬像素。拿10年前的單反跟現在最新的手機比,白天光線良好的時候近距離拍照,手機完勝10年前的單反,再挑一個惡劣的環境(光線較暗),會完敗于10多年前的單反。
      數字圖像系統要考慮到多少像素是有用的,技術又是怎么樣發展的。這些主要受光學相關因素的影響,比如鏡頭的加工工藝、鍍膜以及安裝精度等。
      另外,從算法和算力的領域看。周視為什么之前用8MP攝像頭,我覺得最主要的原因還是為了廣告宣傳效應。技術層面也有意義,但意義不是特別大。高像素攝像頭在技術上最大的意義是場景重建,如果采集這些數據去做場景重現,自己去建地圖非常有意義。如果前視、周視都是8MP攝像頭,可以跑8MP攝像頭的BEV算法,但是BEV+Transformer的網絡不會跑得很快。在現在的技術現狀下,很難跑到實時。
      我可以這樣講,周視全部用8MP攝像頭,如果是跑真正實時的自動駕駛的網絡,4個Orin-X都不一定能搞定?;緯捎每s小、裁剪以及其它一大堆的技巧處理后的輕量版的網絡才能夠運行。如果是開發一個性價比比較合適的方案,        個人認為:前視有效距離要比較遠,要做到200米左右的感知,8MP前視非常有必要。但對周視來講,通常不是那么必要上8MP,2MP的分辨率已經完全夠用。

       梁柱錦:我從另外一個視角談一下。為什么周視要用8MP攝像頭?因為貴,貴代表什么,性能好。我覺得從賣方的角度來看,像以前賣手機的廠商,總會說用了某某最新的芯片。
       實際上,我們的手機性能可能不一定需要那么好的芯片。我覺得對于8MP攝像頭也是一樣。周視用8MP攝像頭,企業就可以對外宣稱說他的自動駕駛系統的感知性和安全性比用2MP攝像頭要更好,這樣的車可以賣的更貴。
       這是從非技術角度,從技術角度講的話,前面幾位已經講的非常全面了。
       我這里稍微補充一下,現在就算是我們用2MP攝像頭,其實大部分的算法也并沒有把所有的這些數據全部利用好。大家實際做算法的時候,一般都會接入2MP周視攝像頭進來,如果用BEV,在目前主流的一些宣稱在100 TOPS左右的芯片上去跑,也很難跑實時。更別說要去帶4個8MP周視攝像頭了。
       總之,所以我覺得,對于高端車型,一方面是為了宣傳,也就是是所謂的廣告效應。另一方面是為了未來的可擴展性。我覺得未來整個算法的模型肯定要迭代。如果前期預留更好的一些傳感器的配置,后面其實大概率是能用起來的。當然,如果我們只是想簡單的去做高速或城區NOA,其實周視用2MP也是完全夠用的。

        四.主持人:未來,用4~5顆超級魚眼攝像頭替代傳統的4顆周視攝像頭+4顆環視攝像頭是否會成為主流?如果能夠實現很好的替代,需要超級魚眼攝像頭具備什么樣的性能?另外,要實現這樣的方案,在算法和軟件層面上又會帶來怎樣的挑戰?

      梁柱錦:最開始我也分析過了,主要看兩點:FOV和像素。FOV取決于攝像頭能看多大范圍,像素取決于它能監控到多少物體。魚眼攝像頭的問題在于看不遠,因為魚眼環視攝像頭都是往下看,如果把它抬起來,肯定就會看得更遠。同時,因為它的FOV足夠大, 意味著同等像素情況下,魚眼攝像頭肯定比周視攝像頭看得要更近。魚眼攝像頭雖然說看不遠, 但如果把像素提高了,它就能看得更遠了。
超級高像素魚眼攝像頭的意義就在于去彌補傳統魚眼攝像頭看不遠的問題。把像素變高,魚眼攝像頭最大的問題就是畸變問題。解決不好畸變,相當于四周的東西都看不了,想要去覆蓋全車360°的是覆蓋不好的。
特別是對于一些在周邊/圖像邊緣的一些場景,對算法的要求相對比較高。怎么能夠把去畸變做得更好,甚至壓根不用做去畸變,只是通過網絡模型去處理(去畸變這種模型)。這會對算法提出更高的要求,我們鑒智就提出了雙球形去畸變的方案。
      所以我非常認同,當魚眼攝像頭的像素提升了,它一定是能去替換掉現在的周視,當然這個是在我們限制的ODD范圍內,比方說我們要去滿足C-NCAP,過十字路口場景,普通的魚眼攝像頭可能就看30米的距離,但C-NCAP現在可能要求看80米的距離,怎么辦?像素就需要提升4倍或8倍。所以,我認為超級魚眼攝像頭一定是有價值的,一定可以逐步地把周視替換掉,用更低/更少的傳感器,去達到我們現在想要的這種城區/高速領航的需求。

      孫魯毅:梁總講的算法應用,我還是比較贊同的?,F在,我講一下魚眼鏡頭本身。其實魚眼鏡頭的模組它不是說你換一個CMOS 圖像傳感器,像素多了,感知效果就會好。因為鏡頭的光學部分也非常重要。
      我看好未來普通魚眼鏡頭在行泊一體的應用,但對于較高成本的超級魚眼持保留態度。
      魚眼鏡頭是所有鏡頭中難度最大的,雖然我們不做鏡頭,但是我們接觸過很多鏡頭廠商,魚眼鏡頭市場上最常見的是接近于Equidistant形變的鏡頭, 這種鏡頭的邊緣壓縮比較明顯,邊緣壓縮會導致邊緣的角分辨率比較低,如果環視魚眼攝像頭兼顧用于周視,真正所感興趣的信息會在邊緣高度壓縮的地方,這是Equidistant鏡頭常見的一些問題。
      從光學角度的設計,魚眼攝像頭對于單點高亮度的光源,在HDR的場景下很容易有紫邊,這是天生的光學設計,想解決這個問題是非常復雜的。解決魚眼攝像頭帶來的鬼影問題,光學成本會比較高。如果要解決上述問題,還要解決夜晚亮度過高的問題,要增加它的光圈,魚眼鏡頭+光圈會加重紫邊,情況會越來越壞。如果加了光圈以后,成像質量又好,那么鏡頭體積就得加大,體積加大以后安裝又變得很困難,最后又導致成本迅速增加。
      也有人會想能不能另辟蹊徑,我不做Equidistant鏡頭,去做那種邊緣擴展比較開這種,比如 stereographic鏡頭。首先這種鏡頭的專利有沒有到期,會不會收專利費暫且不談,單加工成本就比較高,并且尺寸也比較大。
      魚眼攝像頭還有一個難點。前面已經講到部分是算法的應用,比如側面一輛車開過去的時候,環視魚眼攝像頭的成像 —— 有一個差不多45度角的轉向,它的這種特征跟常規的前/后視攝像頭所看到的都非常不一樣,所以要進行一些形變矯正,并且形變矯正本身也很復雜,不是簡單的形變矯正。比如,當某輛車距本車距離比較近以后,它就會凸出來,產生復雜的形變。
      總之,魚眼攝像頭存在兩大問題:1)光學設計怎樣跟CMOS 圖像傳感器進行緊密綁定,降低成本,現在整個行業還沒有很好的解決方案。2)如何很好地應用魚眼攝像頭去做算法。目前,這個問題在整個行業也沒有特別好的答案。

       吳子章:關于魚眼攝像頭的使用及使用過程中遇到的一些問題,確實是我們很多同行都在討論的點,這些也是我們之前一直在考慮的??v目起初便在魚眼泊車上做了很多工作,也一直在思考是否能用魚眼攝像頭去發揮更大的效能,實現更多的功能。在此過程中,的確也遇到了很多類似于剛才孫總談到的一些問題。因為我們公司有專門的傳感器部門,相關同事也很專業,所以經常也會跟我們談到相關的問題。這些問題其實是當前技術發展的瓶頸或者說局限性。
其實,從魚眼攝像頭使用者的角度來看,的確遇到了很多前面幾位提到的問題,比如魚眼攝像頭的安裝角度或安裝策略問題,魚眼攝像頭在左右兩側實際上是要向下看,它要比前后兩側魚眼的安裝位置更低,如果用800萬像素的攝像頭,安裝的角度同樣會向下去傾斜一些,那么,它是否能夠看得足夠遠呢?這可能也是個問題。另外,越邊緣的地方,形變和畸變會越大一些,尤其在側方的遠處,可能會正好趕上形變比較劇烈的一些區域。
      如果說出現的這些問題,都通過算法去解決。但算法在量產的過程中也會應用在不同的車型,比如,在小轎車量產的算法,如果換到大型的商務車上面,可能就需要進行比較大的算法調整或者說算法的適配,無疑會給算法部門帶來比較大的壓力,所以,整個過程是需要解決系統優化的問題,但系統優化可能就需要我們行業內的一些外部的驅動力引入進來??傊?,傳感器的變革是一個艱辛又漫長的過程,所以我們還是拭目以待吧。

      李帥君:從技術上看,我覺得環視和周視存在一定功能上的重疊。從技術和成本的角度出發,現在大家的確都是在想辦法去看能不能把它歸一化,或者說減少成本。
      另外,周視有周視的問題,環視有環視的問題,兩個對比來看,我認為環視要往上走的難度可能更大一點。
      另外,瓶頸并不在Pixel(像素)上面,而在鏡頭上。最終的需求是需要一個側面的視覺系統來具備足夠大的FOV以及更遠的探測距離。相對來講,我覺得如果采用同樣的原理,同樣性質的鏡頭,把周視攝像頭的FOV做得大一些,安裝角度再外下探一些,周視攝像頭來兼顧環視應用可能更容易實現一些。

       五. 主持人:現在大家都在做高速/城區NOA,都在推輕高精地圖甚至是無高精地圖方案來實現高階智能駕駛方案。主流的廠商傾向于選擇異構感知傳感器的冗余方案。對于側前和側后范圍的感知監控,可選擇的傳感器有:3D(4D)角毫米波雷達、高清周視攝像頭(環視攝像頭)以及補盲激光雷達。通常情況下,會至少選擇其中的兩種傳感器;但是要實現規?;慨a,出于成本上的考量,必須有所取舍,那么冗余傳感器配置究竟該如何選擇?


       李帥君:先回答冗余這個詞。我個人看法,冗余偏向于是一個偽命題,大家既然在做融合,可能在算法里面,都要把視覺的特征和雷達的特征放在一起,然后才形成這樣一個系統,這里面其實不存在冗余,每一種都是must,除非是做后融合,卡爾曼濾波這一套其實還是可以用冗余的理論去解釋。但是,所有的BEV算法和重感知輕地圖算法,大家走的都是重度的前融合。所以我覺得談冗余本來就沒有基礎,冗余的這種說法可能也不太準確。
      接下來講怎么去配置這三類傳感器,我的基本觀點是要有深度信息以及不同源的至少兩類傳感器,因為視覺是最豐富的一個信號源,應該具備。接下來是訓練網絡,不管什么樣的感知算法,都需要一個真值,但純視覺的系統往往比較難獲得真值信息。那么,就需要有一類傳感器來輔助認知。
      目前大家有不同的實現路徑:1)激光雷達 —— 大部分人從學術界繼承過來的一種方式。2)雙目立體視覺 —— 鑒智以及其它少數企業在推行的一種方式。3)3D/4D角毫米波雷達 —— 包括福瑞泰克等企業在內在堅持的一種方式。我覺得這些方式都可以去選擇,它的核心作用就是給視覺數據提供距離上的估計。它是用更簡單的一種方式,但一定是不同源的傳感器,這樣才能夠跟視覺傳感器組合起來去生成真值來訓練。

      吳子章:我覺得李總說的很有道理,其實我們想要確保傳感器層面的冗余,肯定至少需要兩類異構傳感器。如果在成本沒有壓力的情況下,甚至我們可以選更多類型的傳感器配置方案。但其實會存在一些問題 —— 我們如何使用這些傳感器。
      因為我們需要通過芯片上面有限的算力,把不同源的傳感器進行強力的融合。尤其是前融合,對傳感器的輸入信號源有一定的要求,并且對網絡模型的要求也更高,并且需要經過強化訓練。目前,業界的技術水平在普遍應用上還存在局限性。
      選一款傳感器,最開始肯定是要看需求,是要覆蓋高速,是城區,還是要覆蓋泊車。如果三個場景都要覆蓋,要考慮的東西會很多,所有場景的需求都要考慮進來。此時,我們不單單是用一般的冗余度去看問題,可能還需要從功能設計的角度去看。有些功能可能一定要這種傳感器,另外一些功能可能對另外一類傳感器是必不可少。那么,從功能需求端來看,這些傳感器就必須得搭配進來。
      很多時候我們都面臨的同樣現實的問題。如果想要在下一代的功能當中去克服所遇到的困難,其實還是需要有一些同行勇敢的站出來 —— 傳感器的配置或者所使用策略就自己設計,不管其他人怎么做,保證自己的效果好就行,并且成為行業標桿。
      成為這樣的標桿當然很難,因為不僅需要自身有計算芯片的生產研發的能力,還要有相應傳感器的研發能力。這是一般供應商很難去復刻的一個模式。但對于我們或類似于我們量級的供應商而言,可能還是要從我們自身的基本的功能層面,或者說冗余度層面、應用場景層面去組合,并最終達到我們現最好的功能性和安全性。

      孫魯毅:關于傳感器的異構冗余,我個人看法是:首先,以現在的計算機視覺和芯片算力的發展水平,異構在絕大部分情況下是無法繞開的。采用恰當的異構傳感器配合,總的來說肯定是有作用的。我想說的并不是隨便挑兩種不同的傳感器去組合效果就一定好,比如視覺+毫米波雷達的組合。因為雷達并不是只有一家供應商,雷達也不是只有一種技術,視覺傳感器同樣如此。具體的情況要根據這輛車所定義的功能,以及打算應用的場合,并且要有一些實際的數據做支撐。有些東西大家覺得是那樣,實際上測起來可能也不見得就是那樣,因為各種傳感器有它自己的短板,視覺一樣有短板,但是并不是說視覺有短板,搭配上毫米波雷達或激光雷達就一定能補上。
       這三類傳感器,我認為視覺傳感器肯定是拿不掉的。那我們先把視覺傳感器裝配上去,再看看還有什么問題,然后再有針對性去解決問題,比如說沒真值系統,是不是要加激光雷達?現在很多企業是怎么做的呢?他們是先把攝像頭裝上車,再裝激光雷達,先采集真值,采完了以后量產車上卻沒有激光雷達。
      今天論壇演講還談到了熱成像攝像頭,在特定的情況下,比如說是在夜間或者大霧天氣,它也可以起到補足可見光攝像頭看不清目標物體的問題。所以說,要解決什么問題,就采用對應的傳感器。我們將來可能還會看到一些更有創意的傳感器的設計。
      總體而言,我認為所謂的異構冗余傳感器是為了解決具體的問題而疊加上去的。異構是不是能解決問題,要靠實際的測量和實際的測試,然后根據測量和測試結果再去挑選所對應的傳感器。
基于這個想法來講,可能要去搭一套東西,具體是前融合還是后融合,也要看現有的算力平臺是否有足夠的算力資源支撐。另外,我們還要考慮開發整套系統的可移植性和可擴展性。另外,除了傳感器異構,我認為還應該考慮基于同樣視覺傳感器,采用不同方法的算法異構。

       梁柱錦:剛才孫總講得非常對,我們去選擇異構傳感器的出發點是為了補全功能,或者是為了安全,一般就是這兩個目的。
      補全功能就是根據我們對各種傳感器的分析 —— 視覺一定要有的,因為視覺富含語義信息,可以做非常多的事情,基于視覺我們要往下拆解,比方說,我們選擇了周視攝像頭,要去做泊車,就要選擇魚眼攝像頭作為另外一種異構傳感器補充進來。假設我們要去做高速NOA,測距測速需要更準,可能會將毫米波雷達或者激光雷達補充進來。
      我們在做這個事情上的思路,比方說為什么我們鑒智要選擇雙目方案?就是因為立體雙目可以彌補單目測距測速不準的問題。其實,單目也不是說不準,特斯拉就是用單目,但是特斯拉用單目的前提是它有非常大量的數據,需要模型去訓出來。但現實情況是大部分的車廠和供應商沒有大量的數據,所以他們就很難通過單目攝像頭把測速和測距這個事情做得很準。那么,有些企業可能會選擇依賴激光雷達去做這件事情,但依賴激光雷達成本又會增加很多。


轉自焉知汽車

上海創程車聯網絡科技有限公司版權所有 滬ICP備11045498號-1   技術支持:網站建設
国产免国产免 费,久久激情无码免费综合视频,色呦呦网站,欧美乱妇日本无乱码特黄大片
<acronym id="olop1"><th id="olop1"></th></acronym>
<strike id="olop1"><blockquote id="olop1"></blockquote></strike>

<button id="olop1"><xmp id="olop1">

<button id="olop1"><dfn id="olop1"></dfn></button>

<button id="olop1"><dfn id="olop1"></dfn></button>

<button id="olop1"></button>
<strike id="olop1"></strike>

<option id="olop1"></option>
<strike id="olop1"></strike>
<button id="olop1"></button>