强奸久久久久久久|草草浮力在线影院|手机成人无码av|亚洲精品狼友视频|国产国模精品一区|久久成人中文字幕|超碰在线视屏免费|玖玖欧洲一区二区|欧美精品无码一区|日韩无遮一区二区

首頁 > 廠商 > 問答 > 人工智能駕車,Uber無人車自動駕駛的第四極崛起

人工智能駕車,Uber無人車自動駕駛的第四極崛起

來源:整理 時間:2023-05-11 00:34:24 編輯:智能門戶 手機版

1,Uber無人車自動駕駛的第四極崛起

確實很不錯,但是肯定便宜不了啊

Uber無人車自動駕駛的第四極崛起

2,什么是汽車自動駕駛如何通俗易懂地理解其功能及原理Autopilot 搜

自動駕駛汽車(Autonomous vehicles;Self-piloting automobile )又稱無人駕駛汽車、電腦駕駛汽車、或輪式移動機器人,是一種通過電腦系統(tǒng)實現無人駕駛的智能汽車。自動駕駛汽車技術的研發(fā),在20世紀也已經有數十年的歷史,于21世紀初呈現出接近實用化的趨勢,比如,谷歌自動駕駛汽車于2012年5月獲得了美國首個自動駕駛車輛許可證,預計于2015年至2017年進入市場銷售。自動駕駛汽車依靠人工智能、視覺計算、雷達、監(jiān)控裝置和全球定位系統(tǒng)協(xié)同合作,讓電腦可以在沒有任何人類主動的操作下,自動安全地操作機動車輛。[1] 2014年12月中下旬,谷歌首次展示自動駕駛原型車成品,該車可全功能運行。[2] 2015年5月,谷歌宣布將于2015年夏天在加利福尼亞州山景城的公路上測試其自動駕駛汽車。[3]
不明白啊 = =!

什么是汽車自動駕駛如何通俗易懂地理解其功能及原理Autopilot  搜

3,什么是人機共駕

人機共駕(Shared Autonomy)MIT 認為自動駕駛應該分為兩個等級:一、人機共駕(Shared Autonomy);二、全自動駕駛(Full Autonomy)。這樣的分類方式不僅能夠提供有建設性的指導方針,添加必要的限制條件同時還可以對要實現的目標進行量化設定。甚至,對每個類別下要實現的功能、對應的技術需求以及可能遇到的問題都可以劃分出來。這個原則的核心在于對「人類駕駛員在環(huán)」的討論。為了實現對車輛的有效控制,人和機器組成的團隊必須共同保持對外部環(huán)境有充分的感知。目標是促使整個行業(yè)對「人機共駕」和「全自動駕駛」進行清晰地劃分。需要指出的是,表 I 中的術語「Good」和「Exceptional」用來表示解決 1% 極端案例的優(yōu)先級順序。遠程操控、V2X 和 V2I 等并非必須的技術,如果要使用的話需要達到特殊的能力要求。在實現高等級自動駕駛的方法上,傳統(tǒng)思路全程都跳過了對「人」這個因素的考慮,精力主要集中在對地圖、感知、規(guī)劃以及表 I 中「全自動駕駛」一欄標注為「exceptional」的技術上。實際來看,考慮到目前的硬件和算法能力,這種解決方案對高精度地圖、傳感器套件的魯棒性要求很高,提供的是較為保守的駕駛策略。而正如表 I 所述,「以人為中心」的自動駕駛汽車著眼點主要在司機身上。負責控制車輛的依然是人,但前提是要對人的狀態(tài)、駕駛方式及之前的人機合作經驗做充分的考量,同時把車輛的轉向、加減速等交由人工智能系統(tǒng)負責。以特斯拉的 Autopilot 為例,之前 MIT 的研究顯示,測試中有超過 30% 的行程都是由這套 L2 級駕駛輔助系統(tǒng)控制完成的。而如果人機共駕應用成功的話,應該能實現超過 50% 的機器控制率。在這次實驗中,MIT 表示無人車系統(tǒng)在接管過程中呈現出了不同程度的能力,而人類駕駛員始終在密切關注著機器的動態(tài),根據感知系統(tǒng)獲得的信息及時預測可能發(fā)生的危險。二、從數據中學習(Learn from Data)從表 I 不難發(fā)現,這其中涉及的任何一項車輛技術都是數據驅動的,需要搜集大量的邊緣案例數據,利用這些數據持續(xù)不斷地優(yōu)化算法。這個學習過程的目的應該是,通過大量數據實現從傳統(tǒng)的模塊化監(jiān)督學習向端到端半監(jiān)督式和無監(jiān)督學習過渡。要實現車輛的自動駕駛,傳統(tǒng)的方法,不管是哪個級別,幾乎都不會大量的應用機器學習技術。除了在一些特殊的線下場景,比如 Mobileye 的視覺感知系統(tǒng)要進行車道線識別,或者是通用 Super Cruise 搭載的紅外攝像頭要對駕駛員頭部動作進行預測等。特斯拉的 Autopilot 可能要比其他方案更進一步,在開發(fā)針對第二代硬件平臺 HW 2.0 的軟件算法時,在視覺感知上應用了越來越多監(jiān)督機器學習的原理。但即便如此,對車輛的絕大部分控制以及對駕駛員狀態(tài)監(jiān)測的實現中,并沒有利用大數據驅動的方式,也幾乎不涉及線上學習的過程。而在目前業(yè)界進行的一些全自動駕駛技術的路測中,機器學習主要應用于環(huán)境感知這一環(huán)節(jié)。更甚的是,這些車輛采集到的數據,無論是從量還是多樣性來看,和具備 L2 級自動駕駛能力的車型相比,遜色不少。特斯拉 Autopilot 對目標物、車道線的檢測主要依賴機器學習算法進行 | ElectrekMIT 認為,「L2 級自動駕駛系統(tǒng)中機器學習框架使用的數據,從規(guī)模和豐富性的角度來看都具有足夠的擴展能力,可以覆蓋多變的、具有代表性、挑戰(zhàn)性的邊緣案例?!谷藱C共駕(Shared Autonomy)要求同時搜集人和車輛的感知數據,挖掘分析后用于監(jiān)督學習的標注。在 MIT 的實驗過程中,駕駛場景感知、路徑規(guī)劃、駕駛員監(jiān)控、語音識別以及語音聚合都應用了深度神經網絡模型,可以通過搜集到的大量駕駛體驗數據進行持續(xù)性的調校和優(yōu)化。在進行數據采集時,MIT 表示并不會只局限于單一的傳感器來源,而是對整個駕駛體驗通盤考慮,并將所有的傳感器數據流通過實時時鐘(real-time clock)匯總、聚合,用于多個神經網絡模型的標注。這種方式能夠讓駕駛場景與駕駛員狀態(tài)能夠很好地匹配起來,而在聚合的傳感器數據流進行標注工作,使模塊化的監(jiān)督學習可以在數據規(guī)模允許時輕松地向端到端學習過渡。三、監(jiān)督人類(Human Sensing)這個其實就是我們俗稱的「駕駛員監(jiān)控」。它指的是對駕駛員的整體心理以及功能特征,包括分心、疲憊、注意力分配和容量、認知負荷、情緒狀態(tài)等的不同程度進行多維度的衡量和評估。目前除了通用 Super Cruise 在方向盤上裝有一枚紅外攝像頭外,不管是搭載了 ADAS 駕駛輔助系統(tǒng)的量產車型,還是在路測的全自動駕駛汽車,絕大部分都沒有提供任何有關駕駛員監(jiān)控的軟件和硬件。特斯拉 Model 3 其實也裝了一枚車內攝像頭,但目前尚未啟用,具體功用官方表示要等軟件更新后才知道。而基于視覺的解決方案以外,市面上還包括一些準確率不高的方式。比如特斯拉在方向盤上安裝了扭矩傳感器,也有的公司利用監(jiān)測方向盤是否發(fā)生倒轉的方式推斷駕駛員是否出現疲勞情況。全新一代凱迪拉克 CT6 搭載的駕駛員監(jiān)控系統(tǒng)由 Seeing Machines 提供 | 官方供圖MIT 認為「對駕駛員狀態(tài)的感知和監(jiān)控是實現高效人機共駕的的第一步,同時也是最關鍵的一步?!乖谶^去的二十多年里,來自機器視覺、信號處理、機器人等領域的專家都進行過相關課題的研究,目的都是在探討如何盡可能保證駕乘人員的安全。此外,對駕駛員狀態(tài)的監(jiān)測對如何改善和提升人機交互界面、高級駕駛輔助系統(tǒng) ADAS 的設計都有很大幫助。隨著汽車智能程度的不斷提高,如何準確、實時地探測到駕駛員的各種行為對打造安全的個性化出行體驗尤為重要。比較有意思的一點是,從完全的手動駕駛到全自動駕駛,這其中涉及到不同模式切換的問題。一般來說雙手脫離方向盤(handoff)就是一種信號,可能表示系統(tǒng)要做好接管的準備了,但還有什么其他更準確的信息可以用來判斷,可能這也是「駕駛員監(jiān)控」的研究人員需要持續(xù)思考的地方。四、共享的感知控制(Shared Preception-Control)通俗點來說,這相當于為整個自動駕駛系統(tǒng)增加了「一雙眼睛和手」。目的是建立額外的感知、控制和路線規(guī)劃機制。即便在高度自動駕駛系統(tǒng)運行狀態(tài)下,也要及時地為駕駛員推送信息,將其納入到整個駕駛過程中。研究全自動駕駛的目的就是為了完美地解決「感知-控制」的問題,考慮到人類的不靠譜和行為的不可測性。所以傳統(tǒng)觀點認為最簡單的辦法就是把人從開車這件事上排除掉,像十幾年前在 DARPA 挑戰(zhàn)賽中獲勝的隊伍一樣。但和傳統(tǒng)解決思路相反的是,MIT 提出的「以人為中心」的理論將人置于感知和決策規(guī)劃閉環(huán)中的關鍵位置。因此,整車感知系統(tǒng)就變成了支持性的角色,為人類駕駛員提供外部環(huán)境信息,這其實也是為了解決機器視覺本身存在的局限性而考慮的。表 II MIT「以人為中心」自動駕駛系統(tǒng)執(zhí)行的感知任務,包括對駕駛員面部表情、動作以及可駕駛區(qū)域、車道線以及場景內物體的檢測 | MIT在 MIT 的研究中,工作人員圍繞這個原則設計了幾條關鍵的算法。表 II 是其中幾個典型的案例。首先,從視覺上可以看到神經網絡做出的判斷、道路分割的區(qū)域以及對駕駛場景狀態(tài)的預估的可信程度;其次,將所有的感知數據整合并輸出融合式的決策建議,這樣在表 IV 的場景下就能夠對整體風險進行預估;再次,MIT 一直使用的是模仿學習:將人類駕駛員操控車輛時方向盤的動作作為訓練數據,進一步優(yōu)化端到端的深度神經網絡;最后,MIT 使用的端到端的神經網絡屬于一個叫做「arguing machines(爭論機器)」框架的一部分,它為主要的感知-控制系統(tǒng)(表 III)提供了來自人類的監(jiān)督。這里的「爭論機器框架」是 MIT 2018年提出的一個概念,它將主要 AI 系統(tǒng)與經過獨立訓練以執(zhí)行相同任務的次要 AI 系統(tǒng)配對。 該框架表明,在沒有任何基礎系統(tǒng)設計或操作知識的情況下,兩個系統(tǒng)之間的分歧足以在人工監(jiān)督分歧的情況下提高整體決策管道的準確性。表 III 對「爭論機器」框架在「Black Betty」自動駕駛測試車上的應用和評估 | MIT表 IV 通過結合車內外感知系統(tǒng)數據得出的融合型決策能夠充分預估可能發(fā)生的風險 | MIT五、深度定制化(Deep Personalization)這里涉及到一個「將人類融入到機器中」的概念。通過調整 AI 系統(tǒng)的參數,使其能夠更適合人類操作并呈現出一定程度的定制化。最終的系統(tǒng)應該帶有該駕駛員的行為特征,而不是像剛出廠時的普通配置一樣。六、不回避設計缺陷(Imperfect by Design)對整個汽車工業(yè)而言,處于很多原因的考慮,進行工程設計時通??紤]最多的是「安全」,所以要盡可能地講系統(tǒng)錯誤出現的頻率和程度降至最低。換句話說,對自動駕駛而言,完美是目標,這也導致了在進行某些功能設計時,可能會因其「不完美」和「不確定」的性質而放棄這些可能是「必要」的設計。但是在 MIT 的研究看來,豐富、高效的溝通機制在設計用于實現「人機共駕」的人工智能系統(tǒng)時,是非常必要的因素。就「溝通」而言,系統(tǒng)存在的不完美對人和機器而言,在進行感知模型的交換和融合過程中,能夠提供密集、多樣的信息內容。如果將 AI 系統(tǒng)的不確定性、局限性和錯誤都隱藏起來,這也就錯失了與人建立信任、深度理解關系的機會。MIT 認為,此前業(yè)界在設計半自動駕駛系統(tǒng)時所采取的「完美」思路,可能是迄今為止所犯的嚴重錯誤之一。而在開發(fā)「Black Betty」這輛無人車時,MIT 把人工智能系統(tǒng)的局限性通過文字和視覺的形式與人類進行充分溝通。例如將人類和機器對外部世界的感知視覺化,讓駕駛員知曉 AI 系統(tǒng)的局限所在。研究人員表示這種方式相比只是提供「報警」或者「模糊的信號」,是最簡潔有效的人機溝通方式。盡管這種溝通機制要實現還面臨一些技術上的難題,比如視覺化的過程通常對芯片的算力和實時調用的能力要求很高。但值得機器人、自動化以及人機交互等領域共同關注并思考解決的辦法。七、系統(tǒng)級的駕駛體驗(System-Level Experience)目前,汽車工業(yè)的工程設計過程中,一個最主要的目標就是「安全」。另一個則是「降低成本」。第二個目標導向的是模塊化、基于零部件的設計思考。但同樣的模式在面向機器人、計算機視覺、機器學習等領域的人工智能系統(tǒng)設計中卻有著迥異的理由。譬如在設計中重視單一功能(目標物檢測等)的實現,能夠有效測試該算法的合理性并逐步使之得到改善和優(yōu)化。但是這個過程也難免會把注意力過渡集中在單一功能而忽略了系統(tǒng)的整體體驗。在過去的幾十年里,「系統(tǒng)工程」、「系統(tǒng)思考」這樣的原則一直在指導著汽車工業(yè)產品的輸出。然后,類似的思考卻幾乎沒有應用在自動駕駛汽車的設計、測試和評估過程中。正如 MIT 上面提到的這六大原則,人和機器都不可避免會有缺陷,只有當「人機共駕」這個框架在系統(tǒng)層面上得到考慮時,這些缺陷才可能有機會成為優(yōu)勢。對「人機共駕」的永恒討論不管短期還是長期來看,其實很難預測自動駕駛的哪條實現路徑最終會成功,而且退一萬步說,你甚至都不知道什么樣的結果算得上是「成功」。在談到研究目的時,MIT 希望一套自動駕駛系統(tǒng)能夠同時滿足「安全」、「愉悅的駕駛體驗」和「提升的出行體驗」這三個要求,而不是彼此妥善折中。而盡管「人機共駕」這個話題在過去的十年里,是包括汽車工業(yè)、機器人在內很多領域研究的焦點,但它仍值得更深入的探討。在今年四月份的上海國際車展上,coPILOT 智能高級駕駛輔助系統(tǒng),這是一套定位「L2+級」 的自動駕駛輔助系統(tǒng),目的是提高乘用車的安全性和駕駛舒適性。從產品名稱不難看出,這套系統(tǒng)同樣強調了「人機共駕」的概念。它配備了相應的傳感器和功能,能夠監(jiān)控駕駛員并在發(fā)生潛在危險情況時觸發(fā)警告。例如,當發(fā)生駕駛員注意力不集中、幾乎完全未將注意力放在路面交通上或顯示出瞌睡跡象等。所以人工智能扮演了「私人駕駛助手」的角色,這個產品理念與 MIT 的研究不謀而合。到底完美解決駕駛任務比完美管理人類的信任和注意力哪個更難?這是值得深思熟慮的問題。MIT 認為關于這個問題的討論仍不會停止,不管是這篇論文還是「Black Betty」這臺無人測試車,都是基于「人機共駕」研究的成果,MIT 認為它是開發(fā)「以人為中心」自動駕駛系統(tǒng)的必由之路。
①時間概念層面的,什么時候人開車,什么時候車自己開(純無人駕駛),什么時候人和車一起開。 ②汽車駕駛性能層面的,隨著無人駕駛技術發(fā)展,在駕車過程中,人起的作用越來越小,車的自主性越來越高。

什么是人機共駕

文章TAG:人工人工智能智能駕車人工智能駕車

最近更新

相關文章