隨著人工智能和機器人的快速發展,開始有更多人對它們流露出擔憂的情緒,甚至史蒂芬·霍金也表示,未來有一天,人工智能機器人將取代人類成為地球上的主導生命形式。本文作者 Simon Chandler 認為其實人工智能和機器人目前而言對我們社會最大的威脅不在于此。我們所恐懼的不應該是這些機器人,而是機器人背后的創造者們。
史蒂芬·霍金表示,未來有一天,人工智能機器人將取代人類成為地球上的主導生命形式,埃隆·馬斯克也說過類似的話。但是,近年來隨著人工智能和機器人取得的令人矚目的進步,他們對這個社會構成的最緊迫、最真切的威脅其實不在于此。具體來說,這種威脅并不是由人工智能和機器人會超越他們現在的特定服務目的(例如管理對沖基金或招募新員工)以及反抗其所有人的可能性而帶來的。更確切地說,情況恰恰相反,正是由于這些人工智能設備和機器人能夠非常高效的代表他們的主人來服務,因此才對這個社會產生了威脅性。事實上,由于機器人和人工智能設備到現在為止還沒有展現出一點點的自主或獨立性,因此很顯然它們并不是像霍金所說的那樣一種“新的生命形式”。它們更像是對那些創建和使用它們的人群的一種延伸,它們是精心制作的工具,用來增強這些人執行某項工作或者任務的能力。
正是由于它們是操作者的一種延伸,所以它們對這個社會也構成了潛在的威脅。因為機器人是由具有特定價值觀和利益的特定人群來設計和使用的,這就意味著它們的行動必然會反映并推廣這些人的價值觀和利益,而這些人的價值觀和利益并不一定為所有群體和個人所認同。機器人所具有的卓越的效率和生產力,能夠為那些擁有足夠資源利用到它們的人提供明顯的優勢,這些人可能會以犧牲那些沒有同等資源的其他人的利益為代價來重塑這個世界。你只要看看最近人工智能和機器學習算法導致偏見的事例就能想象,人工智能未來將如何加劇社會、經濟和政治領域的不平等現象。例如,網絡非盈利媒體 ProPublica 在 2016 年 5 月發表了一項研究成果,其中顯示,美國多個州使用的再犯罪評估算法對非裔美國人有所偏見,將其錯誤標記為“高風險”再犯罪人員的幾率為 44.9%,而白人的這一數據則為 23.5%。除此之外,2017 年 4 月發表于《科學》雜志的一篇研究論文發現,當機器學習工具從互聯網上學習到大量的詞匯聯想法之后,會對女性和非裔美國人獲得一種“類人語義偏見”(即刻板的印象)。
這種情況下偏見的產生是由于人工智能設備和機器人只能從它們接收到的數據和參數中去學習。通常情況下,這些數據和參數是由那些設計和使用它們的人群來提供,例如白人以及那些站在社會金字塔頂尖、享有特權的男性。也正是因為如此,人工智能面部識別軟件在識別有色人種的面孔方面表現一直不理想。并且,這也能說明為什么人工智能和機器人會以服務和推動它們制造者和所有者利益的方式來運作。除此之外,人工智能和機器人由于其所呈現出的卓越的效率,到 2017 年將滲透到 2470 萬個工作崗位,這就意味著它們將會把制造者的標志烙印到生活和工作的大部分領域。它們會讓數百萬工人階層失去工作,它們會打亂現在家庭生活的節奏,它們會讓那些有能力大規模應用它們的發達國家獲得相較于發展中國家更大的商業優勢。最終,那些制造和擁有它們的民族和階層將會聚集更高的全球影響力。也正是因為如此,那些日益增多的有關賦予機器人權利(甚至是公民權)的相關論調會讓人感覺如此不安。因為,機器人和人工智能已經獲得了其所有者的財產權保護,不能被隨意破壞。這樣一來,顯而易見,賦予它們“權利”就不僅僅意味著賦予他們保護自己不備破壞的消極權利(因為他們已經擁有這些權利),而是意味著要賦予它們可以追求自己的目標,而不受一些人干擾的積極權利,例如,那些備受機器人想法折磨的人的干擾。換句話說,賦予機器人這種權利實際上就等同于賦予其所有者為達到自己的目的、實現自己的價值和利益所需的特殊的、受保護的地位。然后,這些所有人利用 AI 和機器人為自己的目標服務的能力就可以更進一步。
最后,在有關人工智能相關討論中經常會出現的一個話題也值得一提。無論是歐洲議會,還是研究機構,經常會說我們需要確保人工智能機器人能夠學習并且維護人類的價值觀。然而,問題在于:機器人究竟學習并且維護的是哪些人的價值觀呢?而這個全人類又是由誰來代表的呢?無論真正普世的價值觀是否能夠灌輸到智能機器人之中,這種說法只能表明機器人的所作所為只能在某個方向上產生道德、社會和經濟方面的成果,因此它們也只能是作為某些價值觀的代理人。而令人擔憂的一個事實是,這些機器人很大程度上是由一些特定的公司和工業家階層來制造和掌握,因此它們的能力也很有可能會為這樣一個階層的價值觀和利益帶來明顯的好處。