在公共利益和技術(shù)神話之間,特斯拉正站在一個難以左右平衡的邊緣。
據(jù)美國媒體報道,CES前夕,在美國拉斯韋加斯的天堂路上,一輛處于自動駕駛模式的Tesla Model S在行駛中撞倒了路邊經(jīng)過的一臺機器人。
這是一場極具魔幻色彩的車禍。如果用一句話概括,一臺來自俄羅斯的禮賓機器人,在向展廳行走的過程中突然離隊,并被美國的自動駕駛汽車撞翻在地??雌饋?,這像是科幻電影里才會出現(xiàn)的交通事故。
圍觀者或許會為這起沒有人員傷亡的“事故”感到好奇,但對于特斯拉和關(guān)注著自動駕駛的人來說,這更像是在CES前夕,技術(shù)向人類發(fā)出的另一種警告:面對一個智能與信息化的未來,算法和人類都準備好了嗎?
事實上,類似的警告始終都在發(fā)生。就拿特斯拉來說,近幾年,其自動駕駛系統(tǒng)不斷在全球各地出現(xiàn)事故。
3年前,中國河北的一名車主就因為開啟了特斯拉的自動輔助駕駛系統(tǒng)而發(fā)生車禍,后來特斯拉承認,系統(tǒng)并未識別出前方的道路清掃車,以致發(fā)生車禍。隨后,美國加利福尼亞州也出現(xiàn)了類似事故,起因是系統(tǒng)沒有辨別出前方白色車輛與天空的區(qū)別。
今天,特斯拉發(fā)現(xiàn)自己陷入和公眾在解釋權(quán)的爭奪中。特斯拉不斷強調(diào),汽車上的自動駕駛系統(tǒng),只是一套輔助駕駛系統(tǒng)。開啟它,并不意味著駕駛員就可以什么都不做,司機仍需時刻注意路況,隨時接管方向盤。
從自動駕駛的分類看,今天特斯拉所使用的輔助駕駛技術(shù)其實只是分類中的L2,也就是部分自動駕駛。在這一級別中,盡管汽車可以進行駕駛操作,但周遭環(huán)境監(jiān)控依然要依靠人類駕駛員。
但如此之多的事故發(fā)生,證明L2級別,是存在一些技術(shù)問題的。比如說,公眾無法搞明白L2級別的自動駕駛技術(shù)中,人類駕駛員的責(zé)任在哪兒,哪些是系統(tǒng)無法完成的。因此,在所發(fā)生的事故中,多數(shù)司機都是在把方向盤交給系統(tǒng)之后,自己出現(xiàn)了注意力不集中的行為,而事故往往就此發(fā)生。
這一功能的問題在于,輔助的邊界是無法定義的。就算在技術(shù)和說明書上能夠劃分清楚,但在實際的駕駛體驗之中,駕駛員必然會因為對這一功能的依賴而出現(xiàn)注意力渙散的行為。這是人性的弱點,也是算法無法估測的。
事實上,2017年10月,谷歌旗下的自動駕駛部門Waymo宣布,暫停開發(fā)自動輔助駕駛功能,給出的理由正是他們發(fā)現(xiàn),在實驗中,人類會出現(xiàn)對該功能的過度依賴現(xiàn)象。
作為科技和制造業(yè)的闖入者,特斯拉在早期曾依賴被神化的“自動駕駛”而博得無數(shù)喝彩。今時今日,自動輔助駕駛系統(tǒng)也是不少人對其“創(chuàng)新科技”的期待。因此,特斯拉沒法像谷歌一樣,瀟灑地宣布棄用這一系統(tǒng)。而這一不完備的過渡性功能,今天又成了特斯拉的新麻煩。
這也是很多科技公司正面臨的麻煩:新的技術(shù)總有新的危險,在危險未完全排除前就廣泛應(yīng)用,任何一個小缺陷,都會引爆一個公共事件。
在公共利益和技術(shù)神話之間,特斯拉正站在一個難以左右平衡的邊緣。自動駕駛技術(shù)或許是不可逆的未來,但在未來到來前,我們都應(yīng)當變得更慎重一些。(胡涵)
標簽:
Copyright @ 2008-2020 www.g888726.cn 華夏財富網(wǎng) 版權(quán)所有 聯(lián)系郵箱:3960 29142@qq.com