隨著人工智能的蓬勃發展,降低算法系統的風險是必須的,新的 ACM 簡報說


查看智能安全峰會的所有點播會議 這裡.


人工智能可能正在蓬勃發展,但計算機協會 (ACM) 全球技術政策委員會明天發布的一份新簡報指出,算法系統的普遍存在“帶來了嚴重的風險,這些風險沒有得到充分解決。”

根據 ACM 簡介,該組織稱這是關於系統和信任的系列文章中的第一篇,完全安全的算法系統是不可能的。 然而,可以採取可行的措施使它們更安全,並且應該成為政府和所有利益相關者的高度研究和政策優先事項。

簡報的主要結論:

  • 為了促進更安全的算法系統,需要對以人為本和技術軟件開發方法、改進的測試、審計跟踪和監控機制以及培訓和治理進行研究。
  • 建立組織安全文化需要管理層的領導、專注於招聘和培訓、採用與安全相關的做法以及持續關注。
  • 政府和組織內部和獨立的以人為本的監督機制對於促進更安全的算法系統是必要的。

人工智能係統需要保障和嚴格審查

計算機科學家 Ben Shneiderman,馬里蘭大學名譽教授,著有 以人為本的人工智能, 是簡報的主要作者,這是一系列關於特定技術發展的影響和政策影響的簡短技術公告中的最新一份。

事件

智能安全峰會點播

了解 AI 和 ML 在網絡安全和行業特定案例研究中的關鍵作用。 今天觀看點播會議。

看這裡

他指出,雖然算法系統——超越人工智能和機器學習技術並涉及人員、組織和管理結構——已經改進了大量的產品和流程,但不安全的系統可能會造成深遠的傷害(想想自動駕駛汽車或面部識別)。

他解釋說,政府和利益相關者需要優先考慮和實施保障措施,就像新食品或藥品在向公眾提供之前必須經過嚴格的審查程序一樣。

人工智能與民航模型的比較

Shneiderman 將創建更安全的算法系統比作民用航空——它仍然存在風險,但通常被認為是安全的。

“這就是我們想要的 AI,”他在接受 VentureBeat 採訪時解釋道。 “這很難做到。 到達那裡需要一段時間。 它需要資源的努力和專注,但這將使人們的公司具有競爭力並使它們經久不衰。 否則,他們將屈服於可能威脅到他們生存的失敗。”

他補充說,朝著更安全的算法系統的努力是從關注人工智能倫理的轉變。

“道德很好,我們都希望它們成為一個良好的基礎,但轉變是朝著我們做什麼的方向發展?” 他說。 “我們如何讓這些東西變得實用?”

在處理非輕量級人工智能應用時,這一點尤為重要——即金融交易、法律問題、僱用和解僱等重大決策,以及對生命至關重要的醫療、交通或軍事應用。

“我們想避免 AI 的切爾諾貝利,或 AI 的三哩島,”Shneiderman 說。 隨著風險的增加,我們必須加大對安全的投入力度。”

發展組織安全文化

根據 ACM 簡報,組織需要發展一種“包含人為因素工程的安全文化”——也就是說,系統在實際操作中如何工作,並由人類控制——必須將其“編織”到算法系統設計中。

該簡報還指出,已被證明是有效的網絡安全方法——包括對抗性“紅隊”測試,其中專家用戶試圖破壞系統,並向報告可能導致重大故障的遺漏和錯誤的用戶提供“漏洞賞金” – 可能有助於製作更安全的算法系統。

許多政府已經在著手解決這些問題,例如美國的 AI 權利法案藍圖和 歐盟人工智能法案. 但對於企業來說,這些努力可以提供競爭優勢,Shneiderman 強調說。

“這不僅僅是好人的東西,”他說。 “這對你來說是一個很好的商業決定,也是一個對你投資於安全概念和更廣泛的安全文化概念的好決定。”

VentureBeat的使命 是成為技術決策者獲取有關變革性企業技術和交易知識的數字城鎮廣場。 發現我們的簡報。

發佈留言