以太坊共同創辦人 Vitalik Buterin 提出警告,指出超智能 AI 的風險以及需要強大的防禦機制。
Buterin 的評論出現在人工智能快速發展之際,對 AI 安全的擔憂顯著增加。
Buterin 的 AI 監管計劃:責任、暫停按鈕與國際控制
在 1 月 5 日的部落格文章中,Vitalik Buterin闡述了他對「d/acc 或防禦性加速」的想法,認為技術應該用於防禦而非造成傷害。然而,這並不是 Buterin 第一次談論與人工智能相關的風險。
「AI 出錯可能讓世界變得更糟的方式幾乎是最糟糕的:它可能真的導致人類滅絕,」Buterin 在 2023 年表示。
Buterin 現在跟進了他在 2023 年的理論。根據 Buterin 的說法,超智能可能只需幾年就會出現。
「看起來我們距離 AGI 只有三年,距離超智能還有三年。因此,如果我們不想讓世界被摧毀或陷入不可逆的陷阱,我們不能只加速好的部分,也必須減緩壞的部分,」Buterin 寫道。
為了減少 AI 相關風險,Buterin 主張創建與人類決策緊密相連的去中心化 AI 系統。通過確保 AI 仍然是人類手中的工具,可以最大限度地減少災難性後果的威脅。
Buterin 接著解釋了軍隊如何可能成為「AI 末日」情境的責任者。全球 AI 軍事用途正在上升,正如在烏克蘭和加沙所見。Buterin 也認為任何生效的AI 法規很可能會豁免軍隊,這使得它們成為重大威脅。
以太坊共同創辦人進一步闡述了他對AI 使用的監管計劃。他表示,避免 AI 相關風險的第一步是讓用戶承擔責任。
「雖然模型的開發方式與最終使用方式之間的關聯常常不明確,但用戶決定了 AI 的具體使用方式。」Buterin 解釋道,強調了用戶所扮演的角色。
如果責任規則無效,下一步將是實施「軟暫停」按鈕,以便通過 AI 規範來減緩潛在危險的進展速度。
「目標是在關鍵時期將全球可用計算能力減少約 90-99% 持續 1-2 年,以爭取更多時間讓人類準備。」
他表示,暫停可以通過 AI 位置驗證和註冊來實施。
另一種方法是控制 AI 硬件。Buterin 解釋說,AI 硬件可以配備一個芯片來控制它。
該芯片將允許 AI 系統僅在每週獲得三個國際機構的簽名後運行。他進一步補充說,至少有一個機構應該是非軍事相關的。
然而,Buterin 承認他的策略有漏洞,僅是「臨時的權宜之計」。
免責聲明
根據信託計畫(Trust Project) 條款,本篇價格預測分析文章僅供參考,不應視為金融或投資的具體建議。 BeInCrypto 致力於提供準確、公正的報告,但市場情況可能會有所變化,恕不另行通知。 在做出任何財務決定之前,請務必自行研究並諮詢專業人士。 請注意,我們的 《服務條款與細則》、 《隱私政策》 以及 《免責聲明》 已經更新。
