微軟在新報告中詳細介紹了管理 AI 的五種方法


昨天,微軟 釋放 一份新報告,“人工智能治理:未來藍圖”,詳細介紹了政府在製定有關人工智能的政策、法律和法規時應考慮的五項指導方針。 該報告還試圖強調微軟內部的人工智能治理。

該公司一直處於 AI 狂潮的最前沿,在其產品中大量更新 AI,支持 OpenAI 的病毒式 ChatGPT,利用圖像和視頻等功能開發自己的 Bing 機器人,並放棄等待完整髮布的名單,儘管該機器人有臭名昭著的傾向“產生幻覺”或編造虛假信息。

微軟從人工智能中看到了更大的希望——新的癌症治療方法、對蛋白質、氣候變化、抵禦網絡攻擊的新見解,甚至保護遭受內戰或外國入侵的國家的人權。

進展並沒有放緩,但隨著全球監管機構開始調查和取締這項技術,監管人工智能的努力現在正在響起。

微軟總裁布拉德史密斯在報告中表示,“僅僅關注使用人工智能改善人們生活的許多機會是不夠的,”並補充說,例如,社交媒體是技術專家和政治評論員津津樂道的工具,但五年後,“既是一種武器又是一種工具——在這種情況下是針對民主本身的。”

深度造假史密斯指出,改變現有內容或生成幾乎與“現實”幾乎無法區分的全新內容是人工智能的最大威脅。 例如,幾個月前,我們看到了一段美國總統喬·拜登 (Joe Biden) 發表恐跨言論的合成視頻的大量傳播。

但史密斯表示,應對人工智能的這些新出現的弊病不應該是科技公司的唯一責任,他接著問道:“政府如何最好地確保人工智能受到法治的約束?” 以及“新的法律、法規和政策應該採取什麼形式?”

根據微軟的說法,以下是管理 AI 的五項準則:

  1. 實施並藉鑑現有和新的政府主導的 AI 安全框架的成功經驗,特別是 人工智能風險管理框架 由美國國家標準技術研究院 (NIST) 完成。 微軟提出了以下四項建議來構建該框架。
  2. 為控制指定關鍵基礎設施運行的 AI 系統創建安全制動器。 它們類似於工程師在電梯、公共汽車、火車等中內置的製動系統。通過這種方法,政府將對控制關鍵基礎設施並可能保證制動的高風險人工智能係統進行分類,要求運營商實施剎車,並確保它們在部署基礎設施之前就位。
  3. 創建一個反映人工智能本身技術架構的新法律框架。 為此,微軟包含了構建生成式 AI 模型的關鍵部分的詳細信息,並提出了在技術堆棧的三個層(應用程序層、模型層和基礎設施層)實施的具體職責。 對於應用層,人的安全和權利將是優先考慮的。 模型層將需要涉及這些模型許可的法規,而基礎設施層將涉及開發和部署這些模型的人工智能基礎設施運營商的義務。
  4. 年度 AI 透明度報告,並擴大了學術研究和非營利社區對 AI 資源的訪問。 報告稱,除非學術研究人員能夠訪問更多的計算資源,否則科學和技術研究將受到影響。
  5. 尋求公私合作夥伴關係,利用人工智能幫助應對社會挑戰

微軟還吹捧了該公司在內部為管理人工智能所做的工作,並指出它有近 350 名員工致力於負責任的人工智能。 它補充說,它在過去六年中製定了道德原則,這些原則轉化為具體的公司政策,涵蓋系統的培訓、工具和測試。 此外,該公司表示,自 2019 年以來,它完成了大約 600 個敏感用例審查。



發佈留言