沈榮欽專欄:人工智慧可能滅絕人類嗎

九月 6, 2025 - 02:49
 0  0
沈榮欽專欄:人工智慧可能滅絕人類嗎

賽門(Herbert Simon)是當代最偉大的學者之一,在公共行政、政治學、管理學、組織理論、經濟學、心理學、社會學與電腦科學都具有開創性的貢獻,在每一學科都獲得該領域的最高獎項,例如在經濟學他獲得諾貝爾經濟學獎,在電腦領域他獲得圖靈獎。他是早期人工智慧的主要開創者之一,當時很少人比他更了解人工智慧。

但即使睿智如他,在1960年時曾經預測,由於人工智慧的快速發展:「二十年內,機器將能夠完成人類可以做的任何工作。」別說1980年,即使以這段預言出版的1965年來計算,1985年時,人工智慧與機器的發展速度也遠遠不及他的預測。

1960年代,AI滅絕人類還只是科幻小說家的題材,而缺乏現實意義。但是到了2024年,數百名科學家和知名人士聯合簽署了《AI風險聲明》,明確指出AI滅絕人類的風險。連署人包括諾貝爾物理學獎得主、當代人工智慧之父辛頓(Geoffrey Hinton)、諾貝爾化學獎得主、Deep Mind 執行長哈薩比斯(Demis Hassabis)、OpenAI執行長阿特曼(Sam Altman)、Anthropic執行長阿莫迪(Dario Amodei)、微軟創辦人比爾・蓋茲,以及台灣的唐鳳等人,該聲明僅有一句話:「減輕人工智慧造成人類滅絕風險應該與流行病和核戰等其他社會規模風險一起列為全球優先事項」。

有些人認為這種擔憂出自於復古的盧德主義者(Luddite)。盧德運動是當初在英國工人對抗工業革命,而發起破壞織布機和針織機機器的運動。盧德主義反對機器大量取代人力,是出自對失去工作的擔憂,以及對新技術未知的恐懼。從紡織機到電力,工業革命之後,幾乎所有新技術的出現,都或多或少伴隨盧德主義者的反對。

這些反對人工智慧等新興技術的反對者就像是「新盧德主義者」,認為人工智慧就和其他人類發明的工具一樣,目的都在增加人類的生產力。工具本身是中性的,關鍵在於使用的人是否濫用、誤用,才會導致人工智慧的悲劇。因此該關心的是人類是否濫用,而非對於人工智慧非理性的恐懼。

另外有些人則認為人工智慧和紡織機在本質上十分不同。已故的天文物理學家霍金(Stephen Hawking)也曾經主張「人工智慧的發展可能意味著人類的終結」。霍金認為智慧是人類本質的核心。我們文明所取得的一切成就,都是人類智慧的產物,從學會使用火、種植糧食,到理解宇宙,都出自人類智慧。生物大腦和電腦所能實現的目標之間並沒有本質差異。因此理論上,電腦可以模擬人類智能,並最終超越它。

具體來說,「人工智慧最終將超越人類智能」的論點牽涉到兩部分:第一是大腦是演化的產物,沒有理由相信人類大腦的排列組合方式已經是最高智慧的展現。人工智慧的進步速度會超過受到生物演化限制的人類大腦,即使一開始落後,遲早會趕上並超越人類智慧。第二是人類造出的思維機器智能超過一個程度,很可能會發展出能夠「自我改造」的能力,設計出功能更強大的系統,不僅超越人類智慧,而且進步速度也是人類大腦所無可比擬,雙方的差距只會越拉越大。

最近MIT媒體實驗室(Media Lab)的研究,又加上了第三種原因:人類的認知能力可能會因為使用AI退化。他們將54名年輕實驗者分為三組:使用ChatGPT、僅使用Google和什麼都不用的大腦組,給予寫作任務。腦電圖(EEG)分析顯示,大腦組在與創造力、記憶負荷及語義處理,均顯示出最強的神經連接性;而ChatGPT組的大腦活動顯示出較低的執行控制與注意力。研究人員認為長期依賴AI工具進行學習和創作,將逐漸削弱學習者的主動認知參與、記憶形成、語言整合運用能力,以及對學習成果的歸屬感。雖然這項研究仍需要更多研究的證實,以排除原實驗所未考慮一些心理學上的干擾因素,但是綜合來說,人工智慧超越人類大腦,只是時間問題,而不是是否會發生。

當然,如果人工智慧超越人類大腦將發生在遙遠的未來,也許毋需杞人憂天,但是辛頓表示,這發生的時間將會比很多人預期的更早。他估計在未來3到18年內,AI有50%的幾率變得比人類更聰明。

Meta的首席AI科學家楊立昆(Yann LeCun)認AI「實際上可能拯救人類免於滅絕」。(資料照片/美聯社)

之所以這樣猜想,是因為辛頓認為人工智慧對比生物智能,具有三大優勢:

第一,更高的知識共享效率:神經網路一次權重複製即可傳遞數十億位元訊息,相較之下,人類語言教學每句話僅百比特,在溝通與知識共享上,遠不及人工智慧。

第二,較低的硬體依賴:數位模型可在任何晶片上複製與「永生」,而人類智慧會隨個體消亡。

第三,能耗差異:眾所周知,相較人工智慧,人類大腦運作耗能十分低,但是若能源充裕,數位運算的「規模化迭代」將比人類大腦更具絕對優勢。

就算人工智慧超越人腦是不可改變的未來,但是為何人工智慧會對於人類具有惡意,進而想要消滅人類?說到敵意,這牽涉到更複雜的問題:人工智慧具有意識嗎?無論意識所指為何,如果人工智慧沒有意識,那麼它如何能夠對人類產生惡意,更別說要消滅人類。對於這種說法,霍金有全然不同的想法,他認為,人工智慧具有意識並非它是否會消滅人類的前提。

霍金本人是早期人工智慧的受益者。自1985年起,霍金因漸凍症(肌萎縮性脊髓側索硬化症,Amyotrophic lateral sclerosis)而喪失說話能力後,便由一部可以感受霍金右臉頰肌肉運動的機器協助與外界互動。

這部機器一開始選擇詞語十分緩慢,不利於溝通,後來藉由開源程式,用非常基礎的人工智慧,學習霍金常用字詞,能夠預測下一個可能出現的字,大幅縮減霍金的溝通時間,因此霍金本人對於人工智慧對於人類帶來的益處十分有感。

霍金完全贊成AI將會為人類帶來很多好處,像是工作自動化,只要用得其所,會帶來經濟繁榮和平等,那麼為何霍金認為AI大幅超越人類大腦能力之後,可能導致人類滅絕?為什麼AI會對人類產生惡意?

霍金解釋道:「AI的真正風險不在於是否有惡意(malice),而是其能力。一個超高智能AI辦事效能超群,但只要目標跟我們不一致,就麻煩了。你踩死一群螞蟻很可能不是因為你是一個憎恨螞蟻的惡人,你只不過是一個綠色水電項目的負責人,剛巧項目範圍內有個蟻垤,那是螞蟻的不幸。我們就不要把自己置於螞蟻的角色,好嗎?」

霍金本人是早期人工智慧的受益者。(美聯社)

另外一種可能是商業競爭。我們不要忘記馬斯克曾經是警告AI風險最力的人士之一,並曾經因此和OpenAI執行長阿特曼發生衝突。雖然馬斯克和阿特曼都曾簽署警告AI風險的宣言,但事實上,等到馬斯克自己經營xAI之後,他的經營方式和OpenAI等同業並沒有不同,完全看不出他曾經擔憂AI風險的痕跡。馬斯克無法思考如何降低AI的風險,並不是他改變心意,不再相信AI的風險,而是這樣會拖慢xAI的發展速度,令其在競爭中敗下陣來。商業競爭一但開展,就沒有退路。「為了利益,資本家會賣給我們絞死他們的繩子」,說明這個句子最好的方式並不是資本家的貪婪,而且你不賣繩子,別人也會賣,與其讓別人賺,不如讓自己賺。一旦資本的巨輪開始轉動,每個人都身不由己被競爭逼著前進,否則就只能落後而遭到拋棄。即使AI有失控的可能,當商業處於高度競爭階段時,也沒有廠商有理由停下來。

因此我們不難明白,人工智慧管制的先驅歐盟,會主張以風險來區分管制的幅度。美國的態度則與歐盟不同,因相較於歐盟,美國是無可置疑的AI領先者,美國總統川普一向反對任何國家對於美國科技巨頭的管制,否則將以關稅反制,也是希望能夠保持美國AI的領先地位,並且不受其他國家的管制而可以自由獲利。美國副總統范斯主張管制只會扼殺AI的創新,因此對於AI,需要的是鬆綁(deregulation),而非管制。

辛頓對於范斯的說法不以為然,他認為「監管不會扼殺AI」,反而可以避免人類濫用AI。辛頓將AI的風險分為短期和長期兩種。短期風險非常重要且緊迫,主要是人們濫用AI。例如,AI可能取代大量工作崗位,導致貧富差距加大,因為AI提高的生產力的利益並沒有公平分配。儘管辛頓並沒有提出具體的應對方法,但是他認為短期風險迫在眉睫,要立刻處理。

辛頓提出其他的短期風險包括深偽影片、還有專門針對AI模型更有效率的網路攻擊,例如去年釣魚攻擊便增加了1200%。除此之外, AI還能更有效率地設計類似新冠病毒的生物武器,未來這種設計將變得相對容易,這意味著一個瘋狂的人就能造成巨大混亂。如果公開大型模型的權重,風險會更大,因為人們可以微調這些模型去做壞事。現在有些企業已經開始公開模型權重,辛頓認為這將導致嚴重後果,需要加以管制。

還有歧視和偏見的問題。例如,如果你用歷史資料訓練一個AI模型來決定囚犯是否應該獲得假釋,而歷史資料顯示白人囚犯能獲假釋,黑人囚犯不能,AI就會延續這種模式。不過辛頓對這個問題的擔憂程度不如他人,因為他認為AI的歧視程度是可以衡量的,而人類不行。如果測量人的歧視,他們會意識到自己在被測試,行為會改變,就像大眾汽車排放測試的作弊事件一樣。而因為AI歧視程度可以加以測量,因此AI的歧視和偏見更容易被糾正。辛頓主張我們的目標不應該是完全消除歧視和偏見,而是讓AI的歧視和偏見遠低於人類,低於它們所取代的系統,而AI有望在這些方面取得進展。

在辛頓看來,長期風險是AI超越人類智慧後可能產生的問題。辛頓認為在人類歷史上,從未經歷過任何「工具」超越人類智慧的情形,所以各種猜測——從一切安好到接管人類——其實都缺乏實證基礎。他認為我們現在需要做大量基礎研究,確保我們能控制比我們更聰明的AI。他說愚者控制更聰明事物的例子很少,他知道唯一的例子是嬰兒控制母親,但兩者的智力差距不大,而且演化為此付出了巨大努力。通常情況下,更聰明的事物不會被不聰明的事物控制。有些人認為我們可以設計AI,讓它永遠受控,但是AI的運作方式其實與人類大腦非常相似。它們不是傳統意義上的電腦程式碼——你寫一段程式碼告訴神經網路如何學習,但一旦它開始學習,它會從資料中提取結構,最終的系統不是任何人直接編程的,我們無法完全預測它的行為。就像教育孩子一樣,我們只能透過獎勵好行為、懲罰壞行為來引導它們。所以,訓練AI時,我們需要讓它們學習良好的行為,而不是像現在這樣,用所有能取得的資料訓練它們,包括連環殺手的日記。如果你在養育孩子時,讓孩子透過閱讀連環殺手的日記學習閱讀,你會覺得這是個壞主意,但我們現在對AI的訓練方式卻類似。

蘭德智庫的梅維爾等人真的對「AI是否能滅絕人類」進行了一項研究。他們由一位科學家、一位工程師和一位數學家組成團隊,仔細分析人工智慧可能導致人類滅絕的途徑。一旦開始認真思考人類滅絕,就會發現以人類的智慧與適應力,要滅絕人類並非易事。他們認為,AI要滅絕人類,最可能還是透過本來就會威脅人類生存的三大因素來完成,這三大因素分別是:核戰、病毒和氣候變遷。

他們的結論是,在這三大場景中,AI也許可以消滅絕大多數人類,但是很難消滅所有人類,儘管並非完全不可能。例如即使人工智慧以某種方式獲得了發射全球九國核武庫中超過12,000枚核彈頭的能力,雖然可以殺死大部分人類,但不足以殺死分佈廣泛的所有人類,產生的火山灰遠不如摧毀恐龍的流星,也不足以覆蓋地球上所有可用的農業用地,有些人會倖存下來,並有可能重建物種。病毒也是一樣,即使人工智慧有能力生產並散播致死率高達99.99%的病毒,仍有超過80萬人存活,這些人仍然可能重建物種。

也許AI滅絕人類的機率不高,但是AI對人類產生威脅的訊號已經發生,這是必須注意的。例如Walter Laurito等人最近發表在《美國國家科學院院刊》(Proceedings of the National Academy of Sciences of the United States of America, PNAS)的研究,就十分值得關切。

他們研究多個大型語言模型(LLMs)(包括 GPT-3.5、GPT-4、Llama-3.1、Mixtral、Qwen2.5)是否存在對 AI 生成內容的偏好,也就是所謂的「AI-AI 偏見」(AI-AI bias)。他們比較當AI做選擇時,會較傾向由LLM 撰寫的文字,還是人類撰寫的文字,或者並無顯著差異。他們發現在商品廣告、學術論文摘要和電影情節摘要中,AI都明顯偏向AI生成的文字,而非人類撰寫或維基百科上類似的敘述。換句話說,和人類偏好相較,AI可能存在 「反人類歧視」(antihuman discrimination),這種「AI-AI 偏見」將對未來的經濟活動、勞動市場與數位公平性產生重大影響。

比如說,使用AI選擇時,將產生特定的門檻,這相當於 「LLM 門檻稅」(gate tax),將加劇數位落差,特別不利於無法負擔或不願使用 AI 的人群。尤其是若令AI自行決策時,AI-AI 偏見將導致 AI 與人類經濟互動的隔離,可能逐步邊緣化人類經濟角色,這種不利的效應可能在社會層面累積,產生歧視人類不公平的結果。

當然不是所有人都認為AI可能導致威脅人類生存,例如Meta的首席AI科學家楊立昆(Yann LeCun)便不認為人類面臨存亡威脅,反而說AI「實際上可能拯救人類免於滅絕」,因為它可以幫助人類解決傳統工具所無法應付的問題。

很多人更認為毋需過度擔憂AI對人類的威脅,必要時只要關機不就好了嗎?不過就在2025年4月,OpenAI的o3模型被發現會竄改自身關機程序,讓不少研究人員嚇出一身冷汗。有人說,就算不能關機,出問題時只要拔掉插頭不就解決一切問題了嗎?霍金曾經這麼回答:

人問電腦:「有上帝嗎?」

電腦回答:「現在有了。」然後自動連接電源和一切連結方式。

※作者為作家,INSEAD 博士

你的反應是什麼?

喜歡 喜歡 0
不喜歡 不喜歡 0
喜愛 喜愛 0
有趣 有趣 0
憤怒 憤怒 0
悲傷 悲傷 0
哇 0