29日,未來生命研究所(Future of Life Institute)公布一封公開信,呼籲所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。

公開信的來頭不小,已有1126名科技領袖和研究人員簽名,到底發生了什麽?

最著名的有馬斯克、辛頓和馬庫斯,此外還包括圖靈獎得主約書亞·本希奧、《人工智能:現代方法》作者斯圖爾特·羅素、蘋果公司聯合創始人史蒂夫·沃茲尼亞克、Stability AI首席執行官埃馬德·莫斯塔克等科技界領袖人物。

他們在呼籲什麽,反對什麽呢?

[筆者把內嵌的通俗說明用顏色斜體字標出!]

公開信截圖

公開信內容如下:

具有人類競爭力智能的AI系統可能會對社會和人類造成深刻的風險,這一點已經被廣泛研究並得到了頂級AI實驗室的認可。

正如廣泛認可的Asilomar AI原則中所述,高級AI可能代表地球生命史上的深刻變化,應以相應的關懷和資源進行規劃和管理。

不幸的是,目前尚無這種級別的規劃和管理。[公開信的核心就是圍繞著規範和慣例,為什麽?]

最近幾個月人工智能實驗室陷入了一場失控的競賽,他們致力於開發和部署更強大的數字思維,但是沒有人能理解、預測或可靠地控制這些大模型,甚至模型的創造者也不能。

[需要管控的原因,是因為AI開始自主輸出信息,而且信息不可控,而不僅僅是給人類提供幫助,或者提高效率。]

當代人工智能系統現在在一般任務上表現與人類相當,我們必須捫心自問:

我們是否應該讓機器用宣傳和虛假信息充斥我們的信息渠道?

[互聯網絕大部分信息都是宣傳和虛假信息,而且現實中大部分用自動化腳本產生,甚至AI]

我們是否應該自動化所有的工作,包括那些富有成就感的工作?

[人的貢獻如何體現?]

我們是否應該開發非人類的思維,可能最終會超過我們、智勝我們、使我們過時並取代我們?

[這是對未來的思考,而且取代後的收益歸誰,才是更重要的話題]

我們是否應該冒險失去對我們文明的控制?[這個還太遠]

這些決策不能委托給未經選舉的技術領袖。[這裏控訴的是技術壟斷,和技術霸權。]

強大的AI系統只有在我們確信其影響將是積極的、風險可控的情況下才應該開發。這種信心必須有充分的理由,並隨著系統潛在影響的程度增加而增強。

OpenAI 最近關於人工智能的聲明指出:“在開始訓練未來系統之前進行獨立審查可能很重要,並且對於最先進的工作來說,人們應該在合適的時間點限制用於創建新系統的計算增長率。”

我們認為,現在已經到了這個時間點。

因此,我們呼籲所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。

這種暫停應該是公開和可驗證的,並包括所有關鍵人員。如果無法快速實施這樣的暫停,政府應該介入並實行叫停。

AI實驗室和獨立專家應該利用這個暫停時間共同開發並實施一套共享的高級AI設計和開發安全協議,這些協議應該由獨立的外部專家進行嚴格審核和監督,這些協議應確保遵守它們的系統是安全的,無可置疑的。

這並不意味著總體上暫停AI開發,而是從具有新興功能的、不可預測的大型黑盒模型的危險競賽中後退一步。

人工智能的研究和開發應該重新聚焦於使當今強大的、最先進的系統更加準確、安全、可解釋、透明、穩健、一致、可信和可靠。

同時,AI開發人員必須與決策制定者合作,大力加速強大的AI治理系統的發展。這些治理系統至少應該包括:

專門針對AI的新型和有能力的監管機構;[菜市場都要有人管,更何況AI]

對高能力的AI系統和大量計算能力的監督和跟蹤;[菜的化肥農藥,要可追溯,AI當然也必須如此]

幫助區分真實和合成數據的溯源、水印系統,並跟蹤模型泄露;[給產品貼商標,以及追蹤使用場景,不能拿菜刀去砍人,只能切菜]

一個強大的審計和認證生態系統;[發營業執照]

對由AI引起的損害的責任;[根據營業執照追責,萬一農藥超標呢?]

針對技術AI安全研究的強大公共資金;[以防算力壟斷,技術壟斷,這應該是公共產品]

資源豐富的機構,以應對人工智能將造成的巨大經濟和政治混亂。[由組織做好失控預案]

人類可以在AI的幫助下享受繁榮的未來。我們已經成功地創建了強大的AI系統,現在可以享受“人工智能之夏”,在這個夏天,我們收獲了回報,為所有人明確的利益設計這些系統,並給社會一個適應的機會。

社會已經暫停了其他可能對社會產生災難性影響的技術的發展。

我們在人工智能領域也能這麽做。

讓我們享受一個漫長的AI夏季,而不是匆忙而不準備地迎接秋天的到來。Let's enjoy a long AI summer, not rush unprepared into a fall)。

聲明到此為止------

這封信,其實不難理解,筆者前期也表達過類似觀點》《ChatGPT,請先遠離!》一文中提出,ChatGPT相關技術涉嫌倫理問題!

這篇聲明實際上說的也是類似問題!

1、無監督海量學習,如果投餵的是不受監督的信息,那麽AI產出也將是無法預測的結果,這有違一致性原則!

通俗點說,你不知道它學的是什麽,更不知道它輸出的是對是錯!

2、互聯網信息90%以上是垃圾,如果以垃圾為原料,產生的結果可能對人類有害。

毒品、槍支、暴力、極端主義等信息泛濫的互聯網,如果是AI的學習來源,那麽其輸出對人類的影響可想而知。

現在互聯網上的宣發、垃圾、有害信息是什麽產生的呢?

以前是自動化腳本,現在都是AI

所以,現在內容分析過濾系統,都是用AI來反制AI產生的垃圾信息。

3、人創造的,還是AI創造的,成果和責任要匹配。

不能只享受AI創造的成果,卻無人為AI造成的損失負責,這明顯是不合理的!

所以,AI生產的信息必須做合理的標記,和正常人產生的信息區別開,並各自承擔不同的責任。

電子世界和現實世界其實類似,犯罪帶來的收益遠高於勞動報酬。

AI可以大大降低犯罪的門檻!

比如,利用AI來創造一個病毒,要遠比人工方便得多,叠代也要快很多倍,可以找到最佳傳播途徑,盯上最有價值的目標。

而反病毒智能,很可能只能等到犯罪事實發生之後再去彌補,而損失已經造成。

其實,互聯網發展到現在一樣伴隨這個爭議!

就以電子郵件為例!

電子郵件誕生開始,方便了溝通的同時,也制造了無數的垃圾信息,統稱為spam,更為詐騙,作惡提供了渠道,是黑產業的溫床。

電子世界裏,有超過90%的電子郵件信息是有害信息,需要強大的內容過濾設備來清理過濾,以防此類信息到達用戶。

郵件產業鏈研發了無數種規範,設備,來防止垃圾郵件的泛濫,最終形成了以實名認證模式為主的DMARC規範,才有效遏制了垃圾郵件的傳播。

即使如此,垃圾郵件依然是整個電子郵件裏占比超過60%的內容!

手機短信也類似,移動互聯網的實名制,導致犯罪成本升高,以及運營商內容過濾設備的部署,才一定程度上遏制了此類信息。

所以,以互聯網垃圾為學習原料的AI,其輸出的信息是否應該被標記?

具有學習能力的設施,機器,機構、個體,是否也應該註冊,拿到執照後規範運行?