三年前,我參觀了一個相當有趣的藝術展覽。雷菲克·阿納多爾的《機器回憶錄》從一開始就引起了我的興趣。
對於那些對藝術與人工智慧交叉感興趣的人來說,他是一個很受歡迎的名字。但別擔心,這個部落格不是關於藝術的。我們將深入探討人工智慧的深層「感知」。
在這次展覽中,阿納多爾正在嘗試 NASA 的太空探索影像。 展覽的靈感來自於望遠鏡可以利用其視覺檔案“夢想”,模糊事實與想像之間的障礙。
透過在宇宙尺度上研究數據、記憶和歷史之間的關係,阿納多爾要求我們考慮以下方面的潛力: 人工智能 觀察和理解我們周圍的世界。連人工智慧也有自己的夢想…
那麼,為什麼這與我們有關呢?
想想看:就像阿納多爾研究望遠鏡根據數據做夢的概念一樣,人工智慧系統在其數位儲存庫中也有自己的夢想類型,或者更確切地說,幻覺。
這些幻覺,就像阿納多爾展覽中的視覺化一樣,可以幫助我們更多地了解數據、人工智慧及其局限性。
AI幻覺到底是什麼?
當大型語言模型(例如生成式人工智慧聊天機器人)產生的輸出具有人類觀察者不存在或不可見的模式時,我們將其稱為“AI幻覺。“
這些輸出與基於人工智慧輸入的預期答案不同,可能是完全錯誤或無意義的。
在電腦的背景下,「幻覺」一詞可能看起來不尋常,但它準確地描述了這些不正確輸出的奇異特徵。人工智慧幻覺是由一系列變數引起的,包括過度擬合、訓練資料的偏差以及人工智慧模型的複雜性。
為了更好地理解,這在概念上類似於人類如何看待雲中的形狀或月球上的臉。
一個例子:
在這個例子中,我問了一個非常簡單的問題 ChatGPT。我應該得到這樣的答案:「沙丘系列叢書的作者是法蘭克‧赫伯特」。
為什麼會這樣?
儘管建構的目的是編寫連貫且流暢的內容,但大型語言模型實際上無法理解它們所說的內容。這對於確定人工智慧生成內容的可信度非常關鍵。
雖然這些模型可以產生模仿人類行為的反應, 他們缺乏情境意識和批判性思考能力 支撐實際智力。
因此,人工智慧產生的輸出存在誤導或錯誤的危險,因為它們更喜歡匹配模式而不是事實正確性。
幻覺的其他情況可能是什麼?
危險的錯誤訊息: 假設一個生成式人工智慧聊天機器人捏造證據和證詞來錯誤地指控公眾人物有犯罪行為。這種誤導性資訊可能會損害該人的聲譽並導致不正當的報復。
奇怪或令人毛骨悚然的答案: 舉一個幽默的例子,想像一個聊天機器人向用戶提出一個天氣問題,並回覆天氣預報說將會下貓狗雨,並附上看起來像貓狗的雨滴圖片。儘管它們很有趣,但這仍然是一個「幻覺」。
事實不準確: 假設基於語言模型的聊天機器人錯誤地指出可以從太空看到中國的長城,但沒有解釋它僅在特定條件下可見。雖然這種說法對某些人來說似乎有道理,但它是不準確的,並且可能會誤導人們對隔離牆從太空的視線的認識。
身為使用者如何避免人工智慧幻覺?
做出明確的提示
您需要與人工智慧模型進行明確的溝通。
在寫作之前考慮你的目標並設計你的提示。
例如,給出諸如“解釋互聯網如何運作並寫一段關於其在現代社會中的重要性的段落”之類的具體說明,而不是提出諸如“告訴我有關互聯網的信息”之類的一般性詢問。
明確性有助於人工智慧模型解釋您的意圖。
範例:向 AI 提出以下問題:
“什麼是雲端運算,它是如何工作的?”
“解釋數據漂移對模型性能的影響。”
“討論 VR 技術對 IT 業務的影響和潛在的未來。”
擁抱榜樣的力量
在提示中提供範例有助於 AI 模型理解上下文並產生準確的回應。無論您是在尋找歷史見解還是技術解釋,提供範例都可以幫助提高人工智慧生成內容的準確性。
例如,您可以說:“提及《哈利波特》等奇幻小說。”
分解複雜的任務
複雜的提示會使人工智慧演算法超載,並可能導致不相關的結果。為了防止這種情況發生,請將複雜的活動分成更小、更易於管理的部分。透過依序組織提示,您可以讓人工智慧獨立關注每個組件,從而產生更合乎邏輯的答案。
例如,不要要求人工智慧「解釋創建一個 神經網路” 在單一查詢中,將任務分解為離散的階段,例如問題定義和資料收集。
驗證輸出並提供回饋
始終仔細檢查人工智慧模型產生的結果,特別是基於事實或關鍵的活動。將回覆與可靠來源進行比較,並記下任何差異或錯誤。
為人工智慧系統提供輸入,以提高未來的表現並減少幻覺。
開發人員避免人工智慧幻覺的策略
實施檢索增強產生 (RAG)。
將檢索增強生成技術整合到人工智慧系統中,以基於可靠資料庫中的事實進行回應。
檢索增強生成 (RAG) 將標準自然語言生成與從龐大知識庫獲取和合併相關資訊的能力相結合,從而產生上下文更豐富的輸出。
透過將 AI 產生的內容與經過驗證的資料來源合併,您可以提高 AI 結果的可靠性和可信度。
持續驗證和監控 AI 輸出
建立嚴格的驗證程序,即時驗證人工智慧輸出的正確性和一致性。仔細監控人工智慧效能,尋找潛在的幻覺或錯誤,並迭代模型訓練和提示最佳化,以隨著時間的推移提高可靠性。
例如,使用自動驗證例程來檢查人工智慧產生的內容的事實正確性,並突出顯示可能出現幻覺的實例以進行手動評估。
檢查數據漂移
資料漂移是一種用於訓練人工智慧模型的資料的統計特徵隨時間變化的現象。如果人工智慧模型在推理過程中遇到與其訓練數據有很大差異的數據,它可能會提供錯誤或不合邏輯的結果,從而導致幻覺。
例如,如果人工智慧模型是根據過去的資料進行訓練的,而這些資料不再與當前環境相關或表明當前環境,則它可能會做出錯誤的結論或預測。
因此,監控和解決資料漂移對於確保人工智慧系統的效能和可靠性,同時減少產生幻覺的可能性至關重要。
結論
根據 IBM Data 的數據,AI 模型的答案中大約有 3% 到 10% 出現了 AI 幻覺。
因此,無論怎樣,您也可能會觀察到它們。我相信這是一個非常有趣的話題,因為它令人著迷地提醒我們不斷增強人工智慧能力的道路。
我們可以觀察並實驗人工智慧的可靠性、數據處理的複雜性以及人機互動。
發表評論