機器人開始“殺人”了。
前不久,亞馬遜公司位于新澤西的運營中心發生了這樣一起事故。由于一個機器人不小心刺破了防熊噴霧,且噴霧恰好從貨架掉了下來,導致防熊噴霧中所含的大量濃縮辣椒素釋放出來,造成了十多名員工呼吸困難,24人住院治療,1人情況十分危急。
盡管最終沒有人因此而喪失生命,但機器人的“謀殺”行為還是再次給人類上了嚴肅的“一課”。
機器人“殺人”早有前科
其實機器人導致人類受傷、乃至死亡的實例早已數不勝數。
早在四十年前的日本廣島,一家工廠的切割機器人在切鋼板時,發生異常,將一名值班工人當做鋼板操作,最終導致了工人的死亡;
事故發生后的第二年,也就是1979年,美國福特公司在密歇根州的鑄造廠中一名裝配線工人被工業機器人手臂擊中身亡。福特被法院裁定賠償該員工家人1000萬美元;
到了1982年,日本山梨縣閥門加工廠的工人在調整停工狀態的螺紋加工機器人時,機器人突然啟動,釀成悲??;
更離奇的是,在1989年,前蘇聯國際象棋冠軍古德柯夫和機器人對弈時,古德柯夫連下3局春風得意,說機器人的智力是斗不過人類的。戲劇性的是,機器人對手就在這時突然向金屬棋盤釋放了高強度電流,而古德柯夫的手恰好放在棋盤上。就這樣,知名的國際象棋大師意外的丟了命。
而發生在最近也是最著名的事件就是2015年2月英國首例機器人心瓣修復手術。當時在手術過程中達芬奇機器人出現了“暴走”情況,不僅把患者的心臟縫錯了位置,還戳穿了患者的大動脈。由于機器人主機運行時聲音很大,主刀醫生和助理交流只能完全依靠吼,期間,機械臂還數次達到了醫生的手。
雖然,主刀醫生Nair和助理見狀由機器人手術回到了傳統人工手術,但是正當他們要修補機器人犯下的錯誤時,患者的心臟已經非常“衰弱”了。一周后,接受這個英國首例機器人心瓣修復手術的患者不幸去世了。
這一事件的爆發引起了全世界范圍內的關注,也讓原本能夠縫合葡萄皮、突破人手極限、在人手無法觸及地方可以進行操作的達芬奇機器人,后續的推廣應用造成了重大影響。英國最終經過了三年才搞清楚事故的原因。
主刀醫生Nair承認在這一手術中自己才做醫用機器人經驗不足,心態過于著急,在手術之前根本沒有完成操作的培訓課程。同時,Nair也承認自己沒有告知患者是英國首位接受機器人修復二尖瓣手術的患者,手術存在很高的風險,而采用傳統人工手術方法存活率會更高。
雖然由于機器人所引發的事故四十年來不曾斷絕,然而,造成諸多悲劇的最終禍首其實還是人。
這次亞馬遜機器人“謀殺”事件也并不例外。
應用廣泛但問題不小的機器人
當前,機器人在物流倉儲行業的應用以及非常廣泛和成熟。如亞馬遜、阿里巴巴、京東、菜鳥網絡等電商、物流公司都早已通過大面積使用機器人實現了從傳統物流到智慧物流的升級。機器人應用的環節也非常普遍,包括倉儲的分揀、打包、傳送、搬運等。甚至,就連物流配送最難實現的自動化最后一公里,也有京東、美團等試圖通過無人車和無人機去解決。
與此同時,倉儲物流市場也呈現出井噴式的發展,有機構預計,近年來國內的智能倉儲物流市場規模將超過1400億元。
本次發生事故的亞馬遜倉庫,也早在全球范圍內投入使用了超過10萬個機器人,機器人的穩定性和安全性應該十分可靠,但悲劇還是發生了。
據悉,亞馬遜在其配送中心部署的這些機器人主要用于整理搬運物品。目前雖然沒有引發這次事故原因詳細的報告,但可以預知的是,引發事故的原因主要集中于幾個方面。包括員工上崗之前的培訓、機器人設備操作是否遵循守則、以及機器人本身的穩定性和智能化是否達到要求等。
事實上,人類在使用機器人的過程中往往會存在一些問題:
首先,機器人不夠智能、穩定性差。日本、德國乃至前蘇聯早年的科技發展速度較快,因此也較早使用了機器人這種“黑科技”。但無奈的是,當時無論是機器人的設計、穩定性都并不成熟和完善,也因此造成了機器人將工人當成鋼板、機器人意外擊中流水線工人、與國際象棋冠軍對弈突然釋放高強度電流等悲劇。
其次,就是人類本身急功近利的心態、或者操作不當的行為導致的意外事故。比如,英國手術的實例。以及同樣發生在2015年7月德國Baunatal工廠的一場事故。當時一名工人負責協助安裝機器人身處在安全籠之中,安全籠將工人與操作金屬的機器人分隔開,但意外是另外一名工人也在現場卻未身處安全籠中,所以這名工人被機器人當成了障礙物。由此引發了悲劇。
此外,還有技術方面的限制,在無人駕駛領域也尤其明顯。今年3月,Uber的一輛自動駕駛汽車就意外撞死了一名行人。根據當地警察局局長發言可知,受害人當時是從陰影中突然出現在馬路上,而任何一種模式下的無人駕駛都很難避開這種碰撞。從技術角度的解釋就是,無人駕駛傳感器融合方案的限制,導致在惡劣天氣以及夜晚等情況下視覺和行人識別有誤甚至無法識別的現在。
取代人類or解放人類?
在1940年,科幻作家阿西莫夫為了防止機器人傷害人類提出了“機器人三原則”:
1.機器人不能試圖傷害人類,也不能看見人類受傷害袖手旁觀;
2.機器人應該服從人的命令,但不得違反第一原則;
3.機器人應該保護自己,但不得違反第一、第二原則。
然而,這三個原則邏輯漏洞明顯,也無法解決實際問題。隨著機器人、人工智能的進一步應用落地,由其引發的安全問題成為了許多人關注的焦點。甚至,還有一部分業內人士為此感到擔憂。特斯拉CEO馬斯克就曾經在Twitter上表示,“我們要非常小心人工智能,它可能比核武器更危險” 。史蒂夫·霍金也曾說,人工智能可能是一個“真正的危險”,機器人可能會找到改進自己的辦法,而這些改進并不總是會造福人類。”
他認為,人工智能的進化并不必然是良性的。而一旦機器人達到能夠自我進化的關鍵階段,人類就無法誤測它們的目標是否與人類相同。人工智能可能比人類進化速度更快,人類需要確保人工智能的設計符合道德倫理規范,保障措施到位。
因此,在2017年人工智能國際會議上,馬斯克、蘋果聯合創始人沃茲尼亞克、研發“阿爾法圍棋”的深度思維公司創始人哈薩比斯等科技界名人兼從業者簽署了公開信,呼吁聯合國應該像禁止生化武器一樣,禁止在戰爭中使用致命的自主武器和“殺人機器人”。
而亞馬遜也曾向美國聯邦通信委員會提交過一份報告,該報告表明亞馬遜正在研發一種保障機器人安全性的新技術。該技術可以通過定位有效地防止倉儲中心的機器人意外傷人。
其實,人類對機器人的認知和期待可謂千人千面。在普通消費者眼中,機器人發展太慢,不夠“智能”無法思考;在部分專家眼里機器人發展很快,進化到最后很可能取代人類。
究竟是取代人類or解放人類?
That is a good question。