【導讀】科技進(jìn)步推動(dòng)產(chǎn)品創(chuàng )新,給各行各業(yè)的設計師們帶來(lái)了前所未有的挑戰,這一點(diǎn)在汽車(chē)行業(yè)尤為明顯。汽車(chē)廠(chǎng)商正努力將已實(shí)現 ADAS 功能的 L2 自動(dòng)駕駛技術(shù)升級到 L3 和 L4,并最終能在自動(dòng)駕駛領(lǐng)域,將基于 AI 的系統發(fā)展到 SAE 6 級水平。L3 級乘用車(chē)已在全球多個(gè)地區上路行駛,L4 級自動(dòng)駕駛出租車(chē)目前也在舊金山等城市街道上進(jìn)行廣泛試驗(在有些地區已投入商業(yè)使用)。但是,在這些車(chē)輛大規模投入市場(chǎng)之前,仍存在許多商業(yè)、物流和監管方面的挑戰。
科技進(jìn)步推動(dòng)產(chǎn)品創(chuàng )新,給各行各業(yè)的設計師們帶來(lái)了前所未有的挑戰,這一點(diǎn)在汽車(chē)行業(yè)尤為明顯。汽車(chē)廠(chǎng)商正努力將已實(shí)現 ADAS 功能的 L2 自動(dòng)駕駛技術(shù)升級到 L3 和 L4,并最終能在自動(dòng)駕駛領(lǐng)域,將基于 AI 的系統發(fā)展到 SAE 6 級水平。L3 級乘用車(chē)已在全球多個(gè)地區上路行駛,L4 級自動(dòng)駕駛出租車(chē)目前也在舊金山等城市街道上進(jìn)行廣泛試驗(在有些地區已投入商業(yè)使用)。但是,在這些車(chē)輛大規模投入市場(chǎng)之前,仍存在許多商業(yè)、物流和監管方面的挑戰。
汽車(chē)廠(chǎng)商面臨的挑戰之一是要彌合兩種情況之間的差距:一邊是于少數技術(shù)實(shí)例的概念驗證,另一邊是將概念轉化成為穩健、可重復和實(shí)用的大規模制造和部署。后者要求設計穩定、安全、可靠,并且定價(jià)合理。
在進(jìn)行概念驗證時(shí),可以通過(guò)不同的途徑實(shí)現目標?!白陨隙隆钡姆椒ㄊ窃谲?chē)輛中集成盡可能多的硬件、傳感器和軟件,然后通過(guò)實(shí)現融合、降低復雜性,達到性能、成本和重量目標。相反,“自下而上”的方法則更有條理,汽車(chē)廠(chǎng)商先完成一個(gè)級別的自動(dòng)駕駛設計,然后再收集數據并克服必要的挑戰,達到下一個(gè)級別。后一種方法越來(lái)越受到大型主機廠(chǎng)的青睞。
設計過(guò)渡從L2到L3到L4逐步提升
汽車(chē)要提供先進(jìn)的 ADAS 系統,并最終實(shí)現自動(dòng)駕駛,必須感知周?chē)h(huán)境,然后根據 “看到的內容”采取行動(dòng)。車(chē)輛對環(huán)境的認知越準確,就能做出越好的決策,行車(chē)也越安全。因此,設計自動(dòng)駕駛汽車(chē)時(shí),首先要確定部署在車(chē)輛周?chē)膫鞲衅鲾盗亢皖?lèi)型。在環(huán)境傳感方面,有三種常用技術(shù):圖像傳感器即攝像頭、毫米波雷達和激光雷達,三者各有利弊。
在上述的三種傳感器中,很明顯,攝像頭和激光雷達的算法處理已經(jīng)普遍在中央域控了,而目前市場(chǎng)上的各類(lèi)毫米波雷達,通常還是前端處理,生成目標以后,再送到中央域控,而并非中央集中處理。我們將在本文中著(zhù)重介紹對于 4D 成像毫米波雷達進(jìn)行中央集中處理的必要性和安霸 CV3 在這方面的技術(shù)優(yōu)勢。
一旦確定了車(chē)輛對傳感器的需求,就要做出一系列關(guān)鍵決定,包括設計系統架構和選擇配備合適的處理器。這就需要從根本上考慮是集中處理傳感器數據,還是在前端處理傳感器數據。
圖1 確定傳感器架構是自動(dòng)駕駛汽車(chē)取得成功的前提
傳統 3D 雷達技術(shù)雖然成本較低,但在感知能力存在著(zhù)一些不足。通常毫米波雷達做前端計算,生成目標以后,在域控里和來(lái)自攝像頭的感知結果做后融合。這種方式因為在前端的信息損失,不僅使得 3D 雷達的作用被大大削弱,并且在視覺(jué)感知高度發(fā)展的今天,傳統 3D 雷達有靠邊站的趨勢。
隨著(zhù)毫米波雷達技術(shù)的演進(jìn),我們看到 4D 成像毫米波雷達的技術(shù)指標比起傳統 3D 毫米波雷達有了大幅的改進(jìn),包括多了一個(gè)高度維度,看得更遠,點(diǎn)云更密集,有更好的角分辨率,對靜止目標檢測更可靠,更低的誤檢和漏檢等。4D 成像毫米波雷達之所以有這些技術(shù)優(yōu)勢,往往來(lái)自于更復雜的調制技術(shù),和更復雜的點(diǎn)云算法,跟蹤算法等。因而 4D 成像毫米波雷達往往需要專(zhuān)門(mén)的雷達處理芯片才能達到所需的高性能。目前市場(chǎng)上已經(jīng)存在一些在前端雷達模塊中添加雷達 DSP 或 FPGA 來(lái)進(jìn)行前端計算的設計。雖然這些前端計算的 4D 成像毫米波雷達有些展現出比傳統 3D 雷達更好的性能,成本較高,不利于廣泛應用。
而在集中式處理方法下,由于所有傳感器的原始數據都在一個(gè)中心點(diǎn)進(jìn)行合并,數據進(jìn)行融合時(shí)不會(huì )丟失關(guān)鍵信息。由于不在前端進(jìn)行處理,毫米波雷達傳感器模塊大大簡(jiǎn)化,從而縮小了尺寸,降低了功耗和成本。此外,大多數毫米波雷達都位于車(chē)輛保險杠后側,最大限度地降低事故后的維修費用。
集中式處理方法還能讓研發(fā)人員靈活地實(shí)時(shí)調整毫米波雷達數據和攝像頭數據的相對重要性,在各種環(huán)境天氣和駕駛條件下提供最佳的環(huán)境感知能力。舉例來(lái)說(shuō),在惡劣天氣條件下,沿高速公路行駛時(shí),毫米波雷達數據將發(fā)揮更大優(yōu)勢;而在擁擠的城市中緩慢行駛時(shí),攝像頭在識別車(chē)道線(xiàn),讀取道路標志和場(chǎng)景感知,識別危險方面將發(fā)揮更重要的作用;而激光雷達對于一般障礙物檢測和夜晚 AEB 方面更有特色,動(dòng)態(tài)配置傳感器套件可以節省處理器資源,降低能耗,同時(shí)提高環(huán)境感知能力和安全性。
前端處理與中央域控處理4D成像毫米波雷達的比較
前端處理成像雷達 1. 算力受限,更大的算力帶來(lái)更大的功耗,影響雷達數據密度和靈敏度 2. 固定的計算模式,必須為最?lèi)毫拥膱?chǎng)景考慮,雖然在常見(jiàn)場(chǎng)景用可能用不到 3. 更高的雷達前端成本, 因為雷達的數據處理放在前端節點(diǎn),增加成本 4. 傳感器融合過(guò)于簡(jiǎn)單,只能用目標級融合 中央處理的域控雷達 1. 為更強大更高效的集中處理,雷達可以得到更好的角分辨率,數據密度和靈敏度 2. 算力可以根據場(chǎng)景,在幾個(gè)雷達之間動(dòng)態(tài)調整,以達到更好的算力利用率,提升感知結果 3. 更低的雷達前端成本,因為雷達的前端只有傳感器,沒(méi)有計算單元 4. 可以做4D雷達數據和攝像頭數據深度的深度融合 SoC 選擇
隨著(zhù)電動(dòng)汽車(chē)的普及,如何節約電能并最大限度地提高“每次充電的續航里程 ”成為每個(gè)車(chē)輛零部件的關(guān)鍵考慮因素。節能是集中式 AI 域控芯片的優(yōu)勢。有些多芯片中央域控消耗大量電能,因而縮短了車(chē)輛的續航里程。如果 SoC 產(chǎn)生的熱量過(guò)大,需要設計主動(dòng)冷卻方案,甚至某些架構需要液體冷卻,這就大大增加了汽車(chē)的尺寸、成本和重量,從而降低了電池續航能力。
AI 智駕軟件正迅速成為系統的關(guān)鍵要素,AI 的實(shí)現方式對 SoC 的選擇,以及開(kāi)發(fā)系統所花費的時(shí)間和資金投入都有重大影響。關(guān)鍵是如何以最小的工作量和能源,運行最新的神經(jīng)網(wǎng)絡(luò )算法,但又不犧牲精度。這不僅需要仔細考慮硬件該如何實(shí)現神經(jīng)網(wǎng)絡(luò ),還要考慮為中間件、設備驅動(dòng)程序和 AI 工具提供支持,縮短開(kāi)發(fā)時(shí)間并降低風(fēng)險。
車(chē)輛出廠(chǎng)后,無(wú)論是解決某個(gè)問(wèn)題,還是新增功能,軟件都需要持續更新?;趩蝹€(gè)域控制器的集中式架構簡(jiǎn)化了這一過(guò)程,OTA 升級的實(shí)現,解決了目前需要單獨更新每個(gè)前端模塊軟件的難題(更加昂貴和復雜)。這種 OTA 方法也意味著(zhù)系統網(wǎng)絡(luò )安全是設計過(guò)程中需要解決的另一個(gè)重要領(lǐng)域。
SoC 的選擇影響著(zhù)設計過(guò)程的各個(gè)方面,包括整輛自動(dòng)駕駛汽車(chē)的效能。為了賦能大型主機廠(chǎng)更快落地極具性?xún)r(jià)比的智駕產(chǎn)品,綜合性地考慮到客戶(hù)需求,為客戶(hù)帶來(lái)主攻 L3/L4 旗艦智駕系統的大算力中央域控 AI 芯片 CV3-AD685,該芯片可實(shí)現 4D 成像毫米波雷達原始數據的集中式處理和深度融合。
為什么安霸傲酷雷達可以做到成本更低呢?
這是因為,傳統 4D 成像毫米波雷達使用固定的調制技術(shù),需要根據調制方案對性能進(jìn)行折中。不過(guò),采用基于 AI 的實(shí)時(shí)動(dòng)態(tài)波形的新興 4D 成像毫米波雷達設計正在幫助解決這一難題。將 “稀疏化陣列天線(xiàn)”與可動(dòng)態(tài)學(xué)習并適應環(huán)境的 AI 算法(即虛擬孔徑成像(VAI)技術(shù))相結合,從根本上打破了調制帶來(lái)的性能折中,可將 4D 成像毫米波雷達的分辨率提高至 100 倍。這大幅度提高了角度分辨率,以及系統性能和精確度,而天線(xiàn)數量也減少了一個(gè)檔次,外形尺寸、功率預算、數據傳輸要求和成本也相應降低。
如何在 CV3 上做中央域控雷達設計呢?
CV3 支持雷達前端傳感器直接傳輸 RAW 數據到域控,而在 CV3 上完成必要的雷達計算包括高質(zhì)量點(diǎn)云生成,處理,跟蹤等算法。CV3-AD685 上帶有專(zhuān)用 4D 成像毫米波雷達處理硬件單元,簡(jiǎn)潔而高效地完成多個(gè)雷達同時(shí)工作時(shí)的數據處理。
圖 3 顯示了一個(gè)功能強大的 SoC 框圖,它是安霸的 CV3-AD685。該 SoC 專(zhuān)為汽車(chē)中央域控制器而設計,可高性能運行各種神經(jīng)網(wǎng)絡(luò )算法,實(shí)現完整的自動(dòng)駕駛解決方案。CV3-AD685 帶有專(zhuān)業(yè)圖像信號處理單元、可使用各種傳感器感知(如來(lái)自攝像頭、毫米波雷達、超聲波雷達和激光雷達)、執行多種傳感器的深度融合,運行車(chē)輛路徑預測規劃控制等算法。CV3-AD 系列專(zhuān)為汽車(chē)智駕設計的架構與 GPU 等競品芯片架構截然不同,GPU 一般采用更為通用的并行計算設計,以運行各種不同的應用。因而在運行智駕應用的時(shí)候,CV3 比競品的效率更高,功耗更低。
圖3 安霸 CV3-AD685 SoC 框圖,該芯片專(zhuān)為汽車(chē)應用中的集中式AI域控而設計。
如圖 3 所示,該 SoC 集成了神經(jīng)網(wǎng)絡(luò )處理器(NVP),通用矢量處理器 (GVP)(用于加速通用機器視覺(jué)算法和毫米波雷達處理)、高性能圖像信號處理器(ISP) 、12 個(gè) Arm? Cortex?-A78AE 和多個(gè) R52 CPU,雙目立體視覺(jué)和密集光流引擎、以及 GPU(用于 3D 渲染如 AVM )。CV3-AD系列的整體架構和 CV3-AD685 相同,適用于從 L2+ 到 L4 級汽車(chē)智駕系統,擁有充沛算力和安全冗余,可運行完整的自動(dòng)駕駛解決方案。其 AI 性能則在高性能 GPU 的 3 倍左右,盡管性能出眾,這款 SoC 的工作功耗卻大幅低于競品。因此,使用 CV3-AD685,與競品芯片相比,在電池容量相同的情況下,電動(dòng)汽車(chē)的續航里程至少可增加 30 公里。另外,在保持相同續航里程的情況下,電池成本可以大幅降低,電池重量也可以減少幾公斤。
總結
近年來(lái),智駕技術(shù)取得了質(zhì)的飛躍。不同的智駕高級功能成為主流已有一段時(shí)間,隨著(zhù)汽車(chē)廠(chǎng)商不斷創(chuàng )新突破,其他新功能也不斷涌現。汽車(chē)行業(yè)現在面臨的挑戰是如何將目前的 L3 和 L4 級智能駕駛試驗車(chē)全面投入生產(chǎn)。
這一進(jìn)步的關(guān)鍵在于傳感器的選擇,包括車(chē)輛的結構和域控芯片的選擇。使用專(zhuān)為集中式傳感器融合設計的處理器,以及基于 AI 的創(chuàng )新技術(shù)(如稀疏化毫米波雷達陣列),自動(dòng)駕駛汽車(chē)可以集中處理毫米波雷達數據,并將其與攝像頭數據進(jìn)行融合,對車(chē)輛周?chē)鷦?dòng)態(tài)環(huán)境做出及時(shí)反應。這種性能和靈敏度的提高可以減少對激光雷達的依賴(lài)性,進(jìn)一步降低成本,并且達到更好的環(huán)境感知性能。
(作者: Senya Pertsel ,來(lái)源:Ambarella安霸半導體)
免責聲明:本文為轉載文章,轉載此文目的在于傳遞更多信息,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權問(wèn)題,請聯(lián)系小編進(jìn)行處理。
推薦閱讀:
意法半導體碳化硅數位電源解決方案被肯微科技采用于服務(wù)器電源供應器設計及應用
開(kāi)展倒計時(shí)8天|CITE2024邀您打卡開(kāi)年深圳首個(gè)電子信息展