人車不會撞到騎自行車的,” Dolgov 的回答非常干脆:“如果我們能給對向的車更多空間并且盡量不讓它撞到我們,我們會這么做并且用例踩剎車把碰撞程度減到最少。” 這種決定聽起來似乎挺合理的,但是很容易就可以設(shè)想出難以做出正確選擇的場景。如果無人車必須在要么剮蹭闖入自己車道的車,要么撞上路邊的樹之間做出選擇的話—你真的想讓無人車的算法來做出抉擇嗎?“這些選擇部分屬于有趣的哲學(xué)問題,” 他說:“所以你要在更大的背景下審視這個問題,在今天,人類司機在全球殺死的人超過了 100 萬?!?/P>
車載攝像頭捕捉到的視頻(左下)與無人車解析出來的可視化數(shù)據(jù)(大屏)
的確,大部分情況下無人車要安全得多。它們不會酒駕、不會路怒、不會邊開車邊發(fā)短信(注:實際上會,只是它可以一心二用,但人這么做會很危險)。但這項技術(shù)并非毫無瑕疵,而且永遠也無法實現(xiàn)這一點。這幾年Google 無人車跟若干輕微交通事故都有牽連,但是都不是事故責任方。不過上個月一輛 Google 無人車首次導(dǎo)致了一次輕微事故,原因是變道闖入了一輛公交車所在車道(沒人在事故中受傷)?!笆裁磿r候無人車要是撞死了人那會是一個大新聞,” Danny Shapiro 這樣評價道。Shapiro 是 Nvidia 負責汽車方面的資深總監(jiān),許多無人車的視頻處理芯片都是他們開發(fā)的。哪怕無人車更安全了,但是把自己的生命托付給機器這個問題,或者更準確地說,托付給 Google(或者蘋果、Tesla)寫的計算機代碼這個問題卻要嚴重得多。誰來確定寫進控制汽車的算法的風險有多少呢?在《我們的機器人,我們自己》中,Mindell 設(shè)想有個渠道可以告訴機器提升或降低風險(開快點或者慢點)。但誰來保證這種風險是精確的呢?如果大眾可以在排放問題上造假的話,誰能保證它在安全測試中就不會呢?
類似這樣的問題正是機器人學(xué)先驅(qū) Rodney Brooks 認為 Google 對無人車的信任過高的原因。這不僅是因為這項技術(shù)尚未就緒,也因為歸根結(jié)底人喜歡有人在場來控制局面,尤其是在自己生命處于危急情況下。Brooks 指出火車史上有過類似簡單得多的控制問題:“盡管機場無人駕駛列車已有多年,但大家也只有對無人駕駛地鐵感到 OK?!?他提到了發(fā)生在 2009年 的華盛頓地鐵事故,一輛計算機控制的地鐵撞上了另一列地鐵,造成 9 人死亡,80 多人受傷。這次碰撞發(fā)生后,乘客要求恢復(fù)由人來控制地鐵。“人開地鐵后地鐵的運行表現(xiàn)開始下降,因為人類司機并不擅長把地鐵??吭跇酥揪€上,但大家的回應(yīng)是 ‘不行,你們得有人來接管?!?Brooks 指出。后來花了 1800 萬美元進行調(diào)查并升級后第一代的計算機驅(qū)動列車才又重返軌道。
微軟研究院 AI 實驗室的負責人 Eric Horvitz 認為,現(xiàn)在給這一切會如何發(fā)展下結(jié)論還為時尚早,但他認為我們很快就將看到至少有一座大城市會被一批公共微型交通工具覆蓋。“你可以想象城市頗為不同的樣子,” Horvitz 說:“你要去巴黎郊外,但是你不能開自己的車去那里,不過不用擔心,那里已經(jīng)被非常靈活的微型交通覆蓋。什么時候想走你只需叫一輛就會有車過來接你去到那個地方。對我來說這聽起來挺不錯的?!?/P>
2024-12-29 08:55
2024-12-29 08:45
2024-12-28 11:42
2024-12-27 09:59
2024-12-27 09:46
2024-12-27 09:44
2024-12-27 09:42
2024-12-26 10:48
2024-12-23 11:01
2024-12-22 08:54