大型語言模型不適合編碼嗎?


正如我所寫,大型語言模型 (LLM)(例如 GPT-4)的興起及其生成高度流暢、自信的文本的能力令人矚目。 可悲的是,炒作也是如此:微軟研究人員氣喘吁籲 描述了微軟資助的 OpenAI GPT-4 展示“通用人工智能火花”的模型。 對不起,微軟。 不,它沒有。

當然,除非微軟的意思是產生幻覺的傾向——生成錯誤的文本,而這些文本肯定是錯誤的——這太人性化了。 GPT 也不擅長下象棋和圍棋等遊戲,數學也很不穩定,並且可能編寫出帶有錯誤和細微錯誤的代碼。 加入俱樂部,對吧?

這些都不意味著 LLM/GPT 都是炒作。 一點也不。 相反,這意味著我們在生成式人工智能 (GenAI) 對話中需要一些觀點,而不是誇大其詞。

作為 在 IEEE Spectrum 文章中有詳細說明,一些專家,例如 OpenAI 的 Ilya Sutskever,認為加入帶有人類反饋的強化學習可以消除 LLM 幻覺。 但其他人,例如 Meta 的 Yann LeCun 和 Geoff Hinton(最近從谷歌退休)認為,大型語言模型中存在一個更根本的缺陷。 兩者都認為大型語言模型缺乏非語言知識,這對於理解語言描述的潛在現實至關重要。

在一次採訪中,Diffblue 首席執行官 Mathew Lodge 認為有更好的方法:“小型、快速且運行成本低廉的強化學習模型在從玩遊戲到編寫代碼的各種任務中輕鬆擊敗了擁有數千億參數的大型 LLM。 ”

我們是否在錯誤的地方尋找 AI 黃金?

版權所有 © 2023 IDG Communications, Inc.

發佈留言