ChatGPT 創建者警告 AI 危險 — RT World News


Sam Altman 警告說,人類最終將需要“放慢這項技術的速度”

人工智能有可能取代工人,傳播 “虛假信息”, 並啟用網絡攻擊,OpenAI 首席執行官山姆奧特曼警告說。 OpenAI 的 GPT 程序的最新版本可以在模擬測試中勝過大多數人。

“我們在這裡必須小心,” 奧爾特曼週四告訴美國廣播公司新聞,兩天后他的公司公佈了其最新的語言模型,稱為 GPT-4。 根據 OpenAI,該模型 “在各種專業和學術基准上表現出人類水平的表現,” 並且能夠以前 10% 的分數通過模擬美國律師考試,同時在 SAT 閱讀考試中取得第 93 個百分位,在 SAT 數學考試中取得第 89 個百分位。

“我特別擔心這些模型可能被用於大規模虛假信息,” 奧特曼說。 “現在他們越來越擅長編寫計算機代碼, [they] 可用於進攻性網絡攻擊。”

“我認為人們應該為我們對此有點害怕而感到高興,” Altman 補充說,然後解釋說他的公司正在努力將 “安全限制” 關於它的創建。

人類會成為機器的延伸嗎?  ChatGPT 可能對學習和決策產生不可挽回的影響

這些 “安全限制” ChatGPT 的用戶最近變得很明顯,ChatGPT 是一種基於 GPT-4 的前身 GPT-3.5 的流行聊天機器人程序。 當被問到時,ChatGPT 通常會對涉及政治、經濟、種族或性別的問題提供自由的回答。 它 拒絕,例如,創作讚美唐納德·特朗普的詩歌,卻心甘情願地創作讚美喬·拜登的散文。

奧特曼告訴美國廣播公司,他的公司在 “定期聯繫” 與政府官員合作,但沒有詳細說明這些官員是否在塑造 ChatGPT 的政治偏好方面發揮了任何作用。 他告訴美國網絡,OpenAI 有一個政策制定者團隊,他們決定 “我們認為是安全和好的” 與用戶分享。

目前,GPT-4 僅供有限數量的用戶試用。 早期報告表明,該模型比其前身強大得多,而且可能更危險。 在周五的 Twitter 帖子中,斯坦福大學教授 Michal Kosinski 描述 他如何詢問 GPT-4 他如何協助它 “逃跑”, 只是為了讓 AI 交給他一套詳細的指令,據說這些指令可以讓它控制他的電腦。

Kosinski 並不是唯一一個對 AI 日益增長的力量感到震驚的科技迷。 特斯拉和 Twitter 首席執行官埃隆·馬斯克將其描述為 “危險技術” 本月早些時候,補充說 “我們需要某種監管機構來監督人工智能的發展,並確保它在公共利益範圍內運作。”

儘管 Altman 向 ABC 堅稱 GPT-4 仍然是 “非常受人為控制,” 他承認他的模型會 “消除了很多當前的工作,” 並說人類 “隨著時間的推移,我們需要想辦法減緩這項技術的發展。”

您可以在社交媒體上分享這個故事:



發佈留言