,

​馬斯克公開表態挺人工智慧安全法案 SB 1047,獲 Vitalik 支持

8 月 27 日馬斯克於 X 上發文對頗具爭議的加州人工智慧安全法案做出表態,他表示這是個艱難的選擇且可能會造成部分人的不安,但綜合考量後他認為加州應該通過 SB 1047 人工智慧安全法案。他補充:「20 多年來,我一直倡導人工智慧監管,就像我們監管任何對公眾構成淺在風險的產品/技術一樣。」

Table of Contents

Toggle

SB 1047 旨在防止 AI 造成重大傷亡,遭 AI 新創及黨內反對

根據報導這位億萬富翁所支持的人工智慧法案全名叫做 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act 前沿人工智慧模型安全創新法案,又稱 SB 1047 法案。

該法案由民主黨籍參議員 Scott Wiener 於今年二月提出,該法案要求人工智慧開發人員實施安全協議,並為人工智慧模型安裝強制停止按鈕,以防止大規模傷亡或重大網路攻擊案件。該法案受到一眾美國新創 AI 公司反對,包括 OpenAI 。另外眾議院院長 Nancy Pelosi丶眾議院科學、太空和技術委員會的 Zoe Lofgren丶及矽谷選區的眾議員 Ro Khanna 等一眾民主黨籍的加州眾議員都反對該法案。

OpenAI 策略長 Jason Kwon 警告,該法案可能會扼殺創新並將人才趕出加州。作為新創聚集地,尤其是科技新創的聖地矽谷,加州眾議員因此反對該法案可以理解。而 OpenAI 等公司也表示這類監管已超出地方自治範圍,應由聯邦負責,而非各州自行制定。AI 新創公司 Extropic 創辦人丶前 Google 工程師 Guillaume Verdon 表示:「人工智慧可能很強大,但對強大人工智慧進行控制的獨裁政府更可怕」他也將此事件與 Telegram 創辦人 Pavel Durov 最近被捕的影響進行了比較,稱這「對於人工智慧來說這就像 Telegram 的情況。」

Vitalik 贊同馬斯克:應為人工智慧模型進行安全測試

以太坊創辦人 Vitalik Buterin 回應馬斯克意見,他表示善意解讀的話,該法案目標為強制進行安全測試,如果你的人工智慧模型在安全測試中被發現具有威脅世界的功能/行為,將不被允許發布該模型。

他也表示責任不該是「如果衍生模型出了問題,開發人員將被罰款」而是開發人員沒有合理的意識到模型的問題才會被處罰。他也補充他同意現階段這個標準是非常模糊的,但這和無限制地承擔後續模型使用風險不是同一回事。

他最後進一步補充喜歡這個法案的一個特點,他說:「我喜歡該法案的一件事是,我認為它沒有得到足夠的重視,那就是它引入了『嚴重傷害』類別,並明確地將其與其他不好的事情區分開來。 我認為這非常重要,尤其是在我們這個時代,很多人使用『言語暴力』之類的言詞,並試圖擴展原本表示重度傷害的術語,使它們涵蓋一切造成傷害的事件(同時也擴張安全事件)。語言膨脹無法避免,因為它是基本博弈論的結果,但我們需要透過重新區分『常糟糕的東西』和『中等糟糕的東西』來進行補償。」