6月5日,知名人工智能公司現員工與前員工發表了一封公開信,警告該行業缺乏安全監督,并呼吁加強對舉報人的保護。這封呼吁《對人工智能提出警告的權利》的公開信,是人工智能行業員工就人工智能的危險的一次公開發聲,11名現任與前OpenAI員工、兩名谷歌DeepMind員工在這封信上簽了名。
信中指出,“人工智能公司掌握著大量非公開信息,這些信息涉及其系統的能力和局限性、保護措施的充分性以及不同種類危害的風險水平。然而,這些公司目前只有微弱的義務與政府分享部分信息,而沒有義務與民間社會分享信息。我們認為不能依靠它們全部自愿分享這些信息”。
OpenAI在一份聲明中為自己的做法進行了辯護,稱公司有舉報熱線等渠道來報告公司存在的問題,并且在有適當的保障措施之前不會發布新技術。谷歌未立即回應置評請求。
OpenAI發言人表示,“我們為提供最有能力和最安全的AI系統的記錄感到自豪,并相信我們在應對風險方面的科學方法。鑒于這項技術的重要性,我們同意進行嚴格的辯論是至關重要的,并且我們將繼續與政府、民間社會和世界其他社區接觸,”
對人工智能潛在危害的擔憂已經存在了幾十年,但近年來的人工智能繁榮加劇了這些擔憂,使監管機構措手不及,難以跟上技術進步的步伐。盡管AI公司公開表示承諾安全開發技術,但研究人員和員工警告稱,缺乏監督可能會加劇現有的社會危害或創造全新的問題。
由現任和前AI公司員工簽署的這封信首次由《紐約時報》報道,呼吁加強對在先進AI公司工作并決定提出安全問題的員工的保護。它要求公司承諾四項關于透明度和問責制的原則,包括一項規定,即公司不得強迫員工簽署任何禁止公開AI風險相關問題的非貶損協議,并建立一個機制,使員工能夠匿名向董事會成員分享擔憂。
“只要這些公司沒有有效的政府監督,現任和前任員工是少數能對公眾負責的人之一,”信中寫道。“然而,嚴格的保密協議阻止我們表達我們的擔憂,除了對那些可能未能解決這些問題的公司。”
OpenAI等公司還采取了積極的策略,防止員工自由談論他們的工作。據Vox上周報道,OpenAI讓離職員工簽署極其嚴格的保密文件,否則將失去所有已歸屬的權益。OpenAI首席執行官Sam Altman在報道后道歉,稱他將改變離職程序。
在兩名OpenAI高層員工、聯合創始人Ilya Sutskever和關鍵安全研究員Jan Leike上月辭職后,這封公開信發布了。Leike在離職后聲稱OpenAI已放棄了安全文化,轉而追求“閃亮的產品”。
周二的公開信呼應了Leike的一些聲明,稱公司沒有表現出對其運營透明的義務。