伊爾亞Ilya Sutskever:AGI (通用人工智慧)是權力問題

近期大家都在談「擴展律」(scaling laws)面臨失效,其實AI學習本來就會遇到天花板,能提升維度就可能打破天花板。

加拿大電腦科學家伊爾亞(Ilya Sutskever)接受Podcast 頻道「Dwarkesh Podcast」專訪,提到單純的規模擴張,已無法解決 AI 模型「泛化能力不足」的根本問題。

但他提到情感在人類決策中扮演類似「價值函數」(value function)的重要角色,希望能讓AI增加這個「價值函數」,就一方面有科學家的聰明(能看出人不只有理性還有感性),一方面又低估了情緒可不是真的可量化的「價值函數」。

也許你可以縮小範圍指定某一個指標是優先的情緒(如關心有生命物體的喜怒哀樂),但這畢竟只是人類複雜情緒的一環,還是有價值光譜的「取捨」而非「賦能」。

人類可能不只靠同情心、悲憫、互助而進步,瞋恨、排斥與掌控欲往往更成為眾多文明建設的主要薪火。

更大的大哉問該問的是——科學家當然只管科學能否突破(這也是佛法「貪嗔癡」的貪的表現),但我這非科學家就想問(而未來如果發明出來的AGI必定不想問)——我們放棄了地球幾十億人的腦袋而耽精竭慮要訓練電腦程式成為AGI的目的究竟何在?

我們是想創造奴僕、幫手,還是要創造新的主子、教主?我們要訓練出財產權屬於私人企業的AGI,是真心想解決這地球上政治經濟文化環境科技等所有問題,還是要讓想掌控世界的人有超級工具更好地宰割其他國家其他人民?

伊爾亞坦承,AGI (通用人工智慧)說到底是權力問題。人要讓AGI 代替人做出多少、或哪個程度的決定?而且是代替哪些人?

超級大腦出現後,其他落後於它們的幾十億普通人活著要做什麼?我想電腦科學家、哪怕稍微有點人文關懷的某些「科技哲學家」、「趨勢思想家」,從來不真有興趣回答——至少你去問KK凱文凱利,他是不會站在人類這一邊噓寒問暖的。

(寫於2025年11月27日)

在〈伊爾亞Ilya Sutskever:AGI (通用人工智慧)是權力問題〉中有 2 則留言

  1. 超級大腦出現後,其他落後於他們的幾十億普通人活著要做甚麼?
    愛因斯坦/牛頓/霍金等天才能夠活到證明其價值嗎?
    我看超級大腦無此耐心,也無暇在芸芸眾生中去挑選。
    [駭客任務]裡人類成為能源來源,
    [魔鬼終結者]更乾脆,直接就砍了

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

這個網站採用 Akismet 服務減少垃圾留言。進一步了解 Akismet 如何處理網站訪客的留言資料