
信息訪問和檢索的突出模型 在搜索引擎成為常態之前——圖書館員和學科或搜索專家提供相關信息——是互動的、個性化的、透明的和權威的。 搜索引擎是當今大多數人訪問信息的主要方式,但輸入幾個關鍵字並獲得按某些未知功能排名的結果列表並不理想。
新一代基於人工智能的信息訪問系統,其中包括微軟的 必應/聊天GPT, 谷歌/巴德 和 元/美洲駝,正在顛覆傳統搜索引擎的搜索輸入輸出模式。 這些系統能夠將完整的句子甚至段落作為輸入並生成個性化的自然語言響應。
乍一看,這似乎是兩全其美:風度翩翩的定制答案與互聯網知識的廣度和深度相結合。 但作為一名研究人員 研究搜索和推薦系統,我相信圖片充其量是混合的。
ChatGPT 和 Bard 等人工智能係統建立在大型語言模型之上。 語言模型是一種機器學習技術,它使用大量可用文本(例如維基百科和 PubMed 文章)來學習模式。 簡而言之,這些模型根據一組單詞或短語計算出下一個可能出現的單詞。 通過這樣做,他們能夠 生成句子、段落甚至頁面 對應於用戶的查詢。 2023 年 3 月 14 日,OpenAI 宣布了下一代技術 GPT-4,它 適用於文本和圖像輸入微軟宣布其 會話式 Bing 基於 GPT-4.
G/O Media 可能會獲得佣金

35% 的折扣
三星 Q70A QLED 4K 電視
通過這次三星促銷節省大筆費用
如果您準備在電視上花些錢,現在正是這樣做的好時機。 您可以以高達 800 美元的價格購買 75 英寸三星 Q70A QLED 4K 電視。 這將價格從 2,300 美元降至 1,500 美元,折價 35%。 根據 Gizmodo 的說法,這是物超所值的電視,而且它恰好是您現在可以買到的最好的 4K 電視之一。
“60 分鐘”探討了 ChatGPT 的優點和缺點。
得益於對大量文本的訓練、微調和其他基於機器學習的方法,這種信息檢索技術非常有效。 基於大型語言模型的系統生成個性化響應以完成信息查詢。 人們發現結果令人印象深刻,以至於 ChatGPT 達到 1 億用戶的時間僅為 TikTok 達到該里程碑所需時間的三分之一。 人們不僅用它來尋找答案,而且 產生診斷, 制定節食計劃 和 提出投資建議.
聊天GPT 不透明度和人工智能 “幻覺”
但是,也有很多缺點。 首先,考慮大型語言模型的核心是什麼——一種連接單詞及其含義的機制。 這會產生一個通常看起來像是智能響應的輸出,但大型語言模型系統是 眾所周知會產生幾乎鸚鵡學舌的陳述 沒有真正的了解。 因此,雖然此類系統生成的輸出看起來很聰明,但它只是 AI 在適當上下文中找到的潛在單詞模式的反映。
這種限制使得大型語言模型系統容易被編造或 “幻覺”的答案. 這些系統也不夠智能,無法理解問題的錯誤前提並無論如何回答錯誤的問題。 例如,當被問及 100 美元鈔票上是哪位美國總統的臉時,ChatGPT 回答了本傑明·富蘭克林,卻沒有意識到富蘭克林從來都不是總統,並且 100 美元鈔票上有美國總統照片的前提是不正確的。
問題是,即使這些系統只有 10% 的時間出錯,您也不知道是哪 10%。 人們也沒有能力快速驗證系統的響應。 這是因為這些系統缺乏透明度——它們不會透露它們接受過哪些數據訓練、它們使用哪些來源得出答案或這些響應是如何生成的。
例如,您可以要求 ChatGPT 撰寫帶有引用的技術報告。 但往往它 組成這些引文 – “幻覺”學術論文的標題和作者。 系統也不會驗證其響應的準確性。 這將驗證留給了用戶,用戶可能沒有這樣做的動機或技能,甚至沒有意識到檢查 AI 響應的必要性。 ChatGPT 不知道什麼時候問題沒有意義,因為它不知道任何事實。
人工智能引人入勝的內容和流量
雖然缺乏透明度可能對用戶有害,但對系統從中學習的原始內容的作者、藝術家和創作者也不公平,因為系統不會透露其來源或提供足夠的歸屬。 在大多數情況下,創作者是 沒有補償或貸記 或給予他們同意的機會。
這也有一個經濟角度。 在典型的搜索引擎環境中,結果顯示為帶有源鏈接。 這不僅允許用戶驗證答案並提供這些來源的屬性,還 為這些網站產生流量. 這些來源中的許多都依賴於這種流量來獲得收入。 因為大型語言模型系統產生直接答案而不是他們從中提取的來源,我相信這些網站很可能會看到他們的收入來源減少。
大型語言模型可以採取 遠離學習和意外發現
最後,這種獲取信息的新方式也會削弱人們的能力並剝奪他們學習的機會。 典型的搜索過程允許用戶探索其信息需求的可能性範圍,通常會觸發他們調整他們正在尋找的內容。 它還為他們提供了一個 學習的機會 那裡有什麼以及各種信息如何連接以完成其任務。 它允許 偶然的相遇或機緣巧合.
這些都是搜索的非常重要的方面,但是當一個系統在不顯示其來源或引導用戶完成一個過程的情況下產生結果時,它就剝奪了他們這些可能性。
大型語言模型是信息訪問的一大飛躍,它為人們提供了一種進行基於自然語言的交互、生成個性化響應並發現普通用戶通常難以想出的答案和模式的方法。 但由於他們學習和構建反應的方式,他們有嚴重的局限性。 他們的答案可能是 錯誤的、有毒的或有偏見的.
雖然其他信息訪問系統也會遇到這些問題,但大型語言模型人工智能係統也缺乏透明度。 更糟糕的是,他們的自然語言反應可以幫助推動 錯誤的信任感和權威感 這對不知情的用戶來說可能是危險的。
想更多地了解人工智能、聊天機器人和機器學習的未來嗎? 查看我們的完整報導 人工智能,或瀏覽我們的指南 最好的免費 AI 藝術生成器 和 我們所知道的關於 OpenAI 的 ChatGPT 的一切.