未來20年,隨著機(jī)器人技術(shù)的進(jìn)步,自動駕駛汽車、工業(yè)機(jī)器人、醫(yī)療機(jī)器人將擁有更強(qiáng)的能力、更大的自主性,并得到更廣泛的應(yīng)用。
1. 自主機(jī)器人和自主決策的確會造成致命的錯誤。
2. 機(jī)器人錯誤造成的死亡將造成新時代的道德困境“電車?yán)Ь场薄?/p>
3. 如果社會接受機(jī)器學(xué)習(xí),并盡一切努力以負(fù)責(zé)任的方式引入機(jī)器人技術(shù),更多的生命將得到拯救。
未來20年,隨著機(jī)器人技術(shù)的進(jìn)步,自動駕駛汽車、工業(yè)機(jī)器人、醫(yī)療機(jī)器人將擁有更強(qiáng)的能力、更大的自主性,并得到更廣泛的應(yīng)用。不可避免的是,這些自主機(jī)器人可能會出現(xiàn)決策失誤,導(dǎo)致數(shù)百或數(shù)千人死亡。但如果人類參與其中,這樣的災(zāi)難是可以避免的。
這樣的未來無疑是可怕的,但一旦人類社會能夠負(fù)責(zé)任地使用機(jī)器人技術(shù),拯救的生命將多于造成的死亡。
在P過程中M機(jī)器學(xué)習(xí)學(xué)習(xí)
機(jī)器人并不是被人類“編程”去模仿人類的決策過程。它們從大數(shù)據(jù)中學(xué)習(xí),利用從數(shù)據(jù)中推導(dǎo)出的復(fù)雜數(shù)學(xué)公式來執(zhí)行“識別交通信號燈”等任務(wù)。機(jī)器學(xué)習(xí)過程需要的數(shù)據(jù)遠(yuǎn)遠(yuǎn)超過人類需要的數(shù)據(jù)。然而,一旦經(jīng)過訓(xùn)練,機(jī)器人在任何特定任務(wù)中的表現(xiàn)都將超過人類。得益于機(jī)器學(xué)習(xí),人工智能和機(jī)器人的性能在過去五年中有了顯著的提高。
我在本文中提出的觀點(diǎn)適用于醫(yī)療保健、制造業(yè)和其他快速實(shí)現(xiàn)自動化的行業(yè)。我們以自動駕駛為例。一個有經(jīng)驗(yàn)的人類司機(jī)一生中可能有幾十萬英里的駕駛經(jīng)驗(yàn),而谷歌的自動駕駛汽車公司W(wǎng)aymo僅在2021年就將完成230萬英里的道路測試,這些自動駕駛車輛永遠(yuǎn)不會疲勞,而且不像健忘的人類司機(jī),可能會忘記他們所犯的錯誤。
當(dāng)特斯拉首次推出“智能呼叫”功能時,這些汽車可以離開停車位,繞過障礙物,而無需車主進(jìn)行操作。一開始,很多用戶抱怨新功能的表現(xiàn)并沒有達(dá)到應(yīng)有的水平,但在幾周之內(nèi),特斯拉收集了早期使用者的數(shù)據(jù),并對新功能背后的機(jī)器學(xué)習(xí)模型進(jìn)行了重新訓(xùn)練。此后,“智能通話”得到了顯著提升,成為特斯拉新車的關(guān)鍵競爭優(yōu)勢。
自主式R機(jī)器人C以及S 大街升
隨著可供學(xué)習(xí)的數(shù)據(jù)量的增加,人工智能的能力也在迅速提升,AI變得更加準(zhǔn)確、自適應(yīng)、安全。隨著越來越多的機(jī)器人進(jìn)入主流日常應(yīng)用,它們的應(yīng)用也越來越廣泛,這標(biāo)志著功能性機(jī)器人正在獲得關(guān)注。自動駕駛將從“手握方向盤”進(jìn)化到“松開方向盤”,再進(jìn)化到“不需要監(jiān)控”甚至“不需要關(guān)注”,最終進(jìn)化到“沒有方向盤”的全自動狀態(tài)。
一個很好的例子是中國的自動駕駛公司文遠(yuǎn)智行。該公司在中國多個城市部署了無人駕駛的面包車和無人駕駛的環(huán)衛(wèi)車。與無人駕駛出租車相比,它們的運(yùn)行環(huán)境更加受限,但與人類駕駛員相比,安全性顯著提高。在特定環(huán)境下運(yùn)行并收集大量數(shù)據(jù)后,這些車輛最終將從這些最初的道路行駛限制中解放出來。
隨著機(jī)器人從簡單的應(yīng)用發(fā)展到復(fù)雜的場景,我們將獲得更多的數(shù)據(jù),這將提高其性能和安全性。例如,通過減少人為錯誤(道路事故最常見的原因),未來十年,僅在英國,自動駕駛汽車就可以防止47,000起嚴(yán)重車禍,挽救3,900人的生命。蘭德公司的研究發(fā)現(xiàn),即使自動駕駛只比人類駕駛安全10%,也會轉(zhuǎn)化為挽救許多寶貴的生命。
倫理困境
大多數(shù)人仍然對機(jī)器人的大規(guī)模應(yīng)用表現(xiàn)出極大的關(guān)注,包括因機(jī)器錯誤而造成的人類生命損失所引發(fā)的道德爭議。經(jīng)典的“電車?yán)Ь场敝傅氖且粋€道德困境,一個旁觀者可以切換失控的電車軌道,殺死一個人,但救了五個人。這種困境說明,“誰生誰死”的選擇本質(zhì)上是一種道德判斷,這種決定不應(yīng)該留給冷漠的機(jī)器。
然而,機(jī)器人和人類的認(rèn)知不同,自然會犯不同類型的錯誤,這進(jìn)一步加劇了“道德困境”。例如,機(jī)器人反應(yīng)迅速且始終專注,但它們可能會誤判障礙物,例如Uber的無人駕駛汽車將推著自行車過馬路的行人誤認(rèn)為是汽車,從而預(yù)測其移動速度比實(shí)際更快。
人為錯誤和機(jī)器錯誤的區(qū)別,讓公眾更難接受機(jī)器人造成的死亡。如果他們曾經(jīng)聽到媒體在2018年美國鳳凰號墜毀事件后這樣的炒作,他們一定更難放手。一旦各種媒體繼續(xù)用大的、譴責(zé)性的標(biāo)題和有偏見的放大來抨擊每一起自動駕駛死亡事件,人們很可能會對自動駕駛系統(tǒng)完全失去信心,即使這項技術(shù)最終有可能拯救數(shù)百萬人的生命。
如果一個人類駕駛員導(dǎo)致另一個人死亡,他們將面臨法律判決和后果。但“人工智能黑匣子”無法用人類可以理解的語言,或者用法律和道德上合理的人類語言向法官和公眾解釋所做決定的原因。
另一個需要辯論的問題是問責(zé)。在那起鳳凰城事故中,汽車?yán)锏娜祟愃緳C(jī)被控過失殺人罪。但在這種情況下,汽車制造商、人工智能算法提供商或工程師是否應(yīng)該承擔(dān)責(zé)任和法律責(zé)任?只有明確責(zé)任歸屬,才有達(dá)成共識的基礎(chǔ)和準(zhǔn)則,才能構(gòu)建完善的自動駕駛生態(tài)系統(tǒng)。
人工智能與機(jī)器學(xué)習(xí)時代的“電車難題”
既然機(jī)器人可以拯救無數(shù)的生命,只要證明機(jī)器人比人類稍微好一點(diǎn),就有充分的理由大力推動自動化。讓我們抓住每一個機(jī)會引入造福人類的機(jī)器人自動化工具,最初在受限和特定的環(huán)境中,然后逐步擴(kuò)大采用,最終獲得更多的自主權(quán)和更廣泛的推動力。通過這種循序漸進(jìn)的方法,我們一方面可以收集更多的數(shù)據(jù),提高機(jī)器人的性能,另一方面可以最大限度地減少危及人類生命的事故。
考慮到潛在的異議,我們需要共同努力,讓公眾更加意識到機(jī)器人的短期痛苦和長期利益。只有這樣,我們才能在擁抱自動化技術(shù)的過程中逐漸養(yǎng)成負(fù)責(zé)任和嚴(yán)謹(jǐn)?shù)膽B(tài)度,讓機(jī)器人更好地服務(wù)于人類社會。
電話
微信

抖音
