本站真誠介紹香港這個「東方之珠」和「亞洲國際都會」

亞洲國際都會 asiasworldcity

当前位置: 主页 > 百科知識 > 百科知識1 >

DeepMind撰文:AGI傷害人類的幾種方式

(本文内容不代表本站观点。)
香港飛龍 Hong Kong HK Dragon
「香港飛龍」標誌

本文内容:

如果您希望可以時常見面,歡迎標星收藏哦~來源:內容編譯自ars,謝謝。隨着人工智能炒作席捲互聯網,科技和商業領袖已經開始展望下一步。AGI,即通用人工智能,是指具有類似人類的智能和能力的機器。如果當今的人工智能系統正在走向 AGI,我們將需要新的方法來確保這種機器不會違揹人類的利益。不幸的是,我們沒有像艾薩克·阿西莫夫的機器人三定律那樣優雅的東西。Google DeepMind 的研究人員一直在研究這個問題,併發布了一篇新的技術論文(PDF),解釋瞭如何安全地開發 AGI,您可以隨時下載。這篇論文包含大量細節,除參考文獻外總共有 108 頁。儘管人工智能領域的一些人認爲 AGI 只是一場白日夢,但 DeepMind 論文的作者預測它可能會在 2030 年實現。考慮到這一點,他們旨在瞭解類似人類的合成智能的風險,他們承認這可能會導致“嚴重傷害”。AGI 可能危害人類的所有方式這項研究確定了四種可能的 AGI 風險,並提出瞭如何減輕這些風險的建議。DeepMind 團隊由公司聯合創始人 Shane Legg 領導,將 AGI 的負面結果歸類爲誤用、錯位、錯誤和結構性風險。本文詳細討論了誤用和錯位,但對後兩者只做了簡要介紹。第一個可能的問題,即濫用,與當前的人工智能風險基本相似。然而,由於 AGI 從定義上來說會更強大,因此它可能造成的損害要大得多。一箇擁有 AGI 訪問權限的無賴可能會濫用系統造成傷害,例如,要求系統識別和利用零日漏洞或創建可用作生物武器的設計病毒。DeepMind 表示,開發 AGI 的公司必須進行大量測試,並制定強大的訓練後安全協議。本質上,AI 護欄就是強化版。他們還建議設計一種完全抑制危險能力的方法,有時稱爲“取消學習”,但目前尚不清楚在不大幅限制模型的情況下是否可行。對於目前存在的生成式人工智能,我們基本上不必擔心錯位問題。這種類型的 AGI 危害被設想爲一臺擺脫了設計者強加的限制的流氓機器。終結者,有人知道嗎?更具體地說,人工智能會採取它知道開發人員沒有打算採取的行動。DeepMind 表示,其錯位標準比當前文獻中看到的簡單欺騙或陰謀更爲先進。爲了避免這種情況,DeepMind 建議開發人員使用放大監督等技術,即兩個 AI 副本相互檢查彼此的輸出,以創建不太可能失控的強大系統。如果失敗,DeepMind 建議進行密集的壓力測試和監控,以觀察任何 AI 可能背叛我們的跡象。將 AGI 放在具有嚴格安全性和直接人工監督的虛擬沙箱中,可以幫助緩解因錯位而引起的問題。基本上,確保有一箇“關閉”開關。另一方面,如果人工智能不知道其輸出會造成傷害,而人類操作員也無意造成傷害,那麼這就是一箇錯誤。目前的人工智能系統就有很多這樣的錯誤——還記得谷歌說要把膠水塗在披薩上嗎?不過,AGI 的“膠水”可能要粘得多。DeepMind 指出,軍方可能會因爲“競爭壓力”而部署 AGI,但這樣的系統可能會犯下嚴重錯誤,因爲它們將承擔比今天的人工智能更復雜的功能。這篇論文並沒有提出很好的解決方案來減少錯誤。歸根結底,就是首先不要讓 AGI 變得太強大。DeepMind 呼籲緩慢部署並限制 AGI 權限。該研究還建議通過“屏蔽”系統傳遞 AGI 命令,以確保它們在實施前是安全的。最後,還有結構性風險,DeepMind 將其定義爲多智能體系統對我們本已複雜的人類生存的無意但真實的影響。例如,AGI 可能會產生虛假信息,這些信息太過可信,以至於我們不再知道該相信誰或什麼。該論文還提出了這樣一種可能性,即 AGI 可能會通過制定嚴厲的關稅計劃,對經濟和政治體系的控制越來越多。然後有一天,我們抬起頭來,發現機器代替我們掌權了。這類風險也是最難防範的,因爲它取決於未來的人、基礎設施和機構如何運作。五年後實現 AGI?沒有人知道思考機器是否真的只需要幾年時間就能出現,但有很多技術領袖對此充滿信心。預測 AGI 出現的部分問題在於,我們仍然只是在推測類人智能將如何在機器中體現。過去幾年使用過生成式人工智能系統的人都看到了真正的、切實的改進,但這種軌跡是否會帶來真正的類人能力?我們最近與谷歌 Gemini 產品管理總監 Tulsee Doshi 討論了一系列人工智能主題,包括 AGI。“不同的人對 AGI 有不同的定義,因此,取決於你與誰交談,我們距離 AGI 有多遠是一箇不同的話題,”Doshi 說。“我想說的是,法學碩士、Gemini 以及越來越智能的模型的訓練正在走向具有極高智能的模型。這本身就具有巨大的價值。”這篇論文並不是關於 AGI 安全性的最終定論——DeepMind 指出,這只是“重要對話的起點”。如果團隊是正確的,並且 AGI 將在短短五年內改變世界,那麼這些對話需要儘快進行。如果不是,那麼很多人看起來會很傻。https://arstechnica.com/ai/2025/04/google-deepmind-releases-its-plan-to-keep-agi-from-running-wild/半導體精品公衆號推薦專注半導體領域更多原創內容關注全球半導體產業動向與趨勢*免責聲明:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅爲了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支持,如果有任何異議,歡迎聯繫半導體行業觀察。今天是《半導體行業觀察》爲您分享的第4086期內容,歡迎關注。『半導體第一垂直媒體』實時 專業 原創 深度公衆號ID:icbank喜歡我們的內容就點“在看”分享給小夥伴哦


(本文内容不代表本站观点。)
---------------------------------
本网站以及域名有仲裁协议(arbitration agreement)。

依据《伯尔尼公约》、香港、中国内地的法律规定,本站对部分文章享有对应的版权。

本站真诚介绍香港这个「东方之珠」和「亚洲国际都会」,香港和「东方之珠」和「亚洲国际都会」是本站的业务地点名称。

本网站是"非商业"(non-commercial),没有涉及商业利益或竞争。


2025-Jun-08 11:12pm (UTC +8)
栏目列表