超智能AI可能會成爲災難——V神

AI軍事AI戰爭# 超級智能AI可能是一場災難 – Vitalik Buterin

人類在協調全球價值觀方面做得還不夠好,無法保證超智能人工智能將爲全人類的利益服務。這樣的聲明是以太坊的聯合創始人V神所做的。

他評論了3D藝術家Utah teapot的帖子。

AI對齊到底是什麼?每個人總是在問“對什麼對齊”,而沒有人能給出答案,除了“人類價值觀”。一致、自洽的人類價值觀並不存在。我仍然不明白。我們在研究什麼?這真是荒謬,這正在增長…

— 猶他茶壺 🫖 (@SkyeSharkie) 2025年8月24日

"AI alignment的概念到底如何存在?我一直在問:'與什麼一致?'沒有人能回答,除了'與人類價值觀一致'。但根本沒有完整、一致的人類價值觀。我仍然不明白。我們到底在研究什麼?這變成一個日益增長的行業是荒謬的。這是虛假的工作。" — 他寫道。

V神強調,世界上存在許多與倫理原則相悖的事情。他舉例說,謀殺或囚禁無辜者。

「[…] 我們目前在協調方面還不夠出色,無法保證單一的超智能人工智能甚至能避免這一點。」——開發者補充道。

猶他茶壺指出,協調人工智能的發展正朝着限制公衆訪問開發的方向發展。同時,大型公司出售其人工智能系統的版本,這些版本助長了負面現象,並成爲戰爭工具。

«我深感擔憂的是,集中化的人工智能技術訪問使得一些實際上並非安全問題的內容被強加於人——例如,圍繞 LLM 的“精神錯亂”討論。因此,存在對獨特或邊緣文化及其價值觀造成傷害的風險,» — 用戶指出。

V神分擔了許多這些擔憂。

「我認爲最大的風險將來自於軍事和其他擁有巨大權力的結構,這些權力使他們能夠使自己擺脫適用於所有其他人的安全規則的默認情況。」——以太坊的聯合創始人V神補充道。

Utah teapot作爲例子提到了人工智能初創公司Anthropic。它正在開發"民用"模型的替代版本,並提供給政府。它們可以用於軍事或情報行動。

V神 подчеркнул,只有一個擁有自己意志和能力作爲主體行動的超智能代理人工智能時,人類面臨災難性場景的可能性才會提高。

如果環境是多元化的,沒有任何系統能夠完全控制局勢。然而,僅靠市場機制是不夠的。需要有意的努力,包括法律和激勵的變化,這些變化不會受到大公司的歡迎。

我們提醒您,2022年印度信息技術部長拉吉夫·昌德拉塞卡爾呼籲制定全球標準,以確保人工智能對人類的安全。

ETH5.37%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)