受信任的

Vitalik Buterin 發出警告:超智能 AI 或比你想像中更快到來

3 分鐘前
Ann Shibu 撰寫
Harsh Notariya 更新

摘要

  • 以太坊聯合創始人強調需加速防禦以遏制超智能 AI 威脅。
  • Buterin 主張將 AI 系統與人類決策結合,以減少誤用風險,尤其是軍方。
  • 他建議責任規則、「軟暫停」按鈕和 AI 硬體控制以延緩危險的進展。

以太坊共同創辦人 Vitalik Buterin 提出警告,指出超智能 AI 的風險以及需要強大的防禦機制。

Buterin 的評論出現在人工智能快速發展之際,對 AI 安全的擔憂顯著增加。

Buterin 的 AI 監管計劃:責任、暫停按鈕與國際控制

在 1 月 5 日的部落格文章中,Vitalik Buterin闡述了他對「d/acc 或防禦性加速」的想法,認為技術應該用於防禦而非造成傷害。然而,這並不是 Buterin 第一次談論與人工智能相關的風險。

「AI 出錯可能讓世界變得更糟的方式幾乎是最糟糕的:它可能真的導致人類滅絕,」Buterin 在 2023 年表示

Buterin 現在跟進了他在 2023 年的理論。根據 Buterin 的說法,超智能可能只需幾年就會出現。

「看起來我們距離 AGI 只有三年,距離超智能還有三年。因此,如果我們不想讓世界被摧毀或陷入不可逆的陷阱,我們不能只加速好的部分,也必須減緩壞的部分,」Buterin 寫道。

為了減少 AI 相關風險,Buterin 主張創建與人類決策緊密相連的去中心化 AI 系統。通過確保 AI 仍然是人類手中的工具,可以最大限度地減少災難性後果的威脅。

Buterin 接著解釋了軍隊如何可能成為「AI 末日」情境的責任者。全球 AI 軍事用途正在上升,正如在烏克蘭和加沙所見。Buterin 也認為任何生效的AI 法規很可能會豁免軍隊,這使得它們成為重大威脅。

以太坊共同創辦人進一步闡述了他對AI 使用的監管計劃。他表示,避免 AI 相關風險的第一步是讓用戶承擔責任。

「雖然模型的開發方式與最終使用方式之間的關聯常常不明確,但用戶決定了 AI 的具體使用方式。」Buterin 解釋道,強調了用戶所扮演的角色。

如果責任規則無效,下一步將是實施「軟暫停」按鈕,以便通過 AI 規範來減緩潛在危險的進展速度。

「目標是在關鍵時期將全球可用計算能力減少約 90-99% 持續 1-2 年,以爭取更多時間讓人類準備。」

他表示,暫停可以通過 AI 位置驗證和註冊來實施。

另一種方法是控制 AI 硬件。Buterin 解釋說,AI 硬件可以配備一個芯片來控制它。

該芯片將允許 AI 系統僅在每週獲得三個國際機構的簽名後運行。他進一步補充說,至少有一個機構應該是非軍事相關的。

然而,Buterin 承認他的策略有漏洞,僅是「臨時的權宜之計」。

免責聲明

根據信託計畫(Trust Project) 條款,本篇價格預測分析文章僅供參考,不應視為金融或投資的具體建議。 BeInCrypto 致力於提供準確、公正的報告,但市場情況可能會有所變化,恕不另行通知。 在做出任何財務決定之前,請務必自行研究並諮詢專業人士。 請注意,我們的 《服務條款與細則》《隱私政策》 以及 《免責聲明》 已經更新。

wpua-300x300.png
Ann Maria Shibu 是 BeInCrypto 的管理編輯,專門報導加密貨幣產業的監管動態,特別關注歐洲地區。 在加入 BeInCrypto 之前,Ann 在 AMBCrypto 擔任新聞編輯近兩年,為此職位帶來了寶貴的編輯經驗。 此外,她曾在路透社新聞(Reuters News)擔任突發新聞記者長達四年,磨練了在快節奏、高風險環境中的報導能力。 Ann 擁有國際關係碩士學位,進一步深化了她對全球趨勢和影響加密貨幣市場的地緣政治因素的理解。
閱讀完整簡介