今天,數百萬人依賴 ChatGPT 作為有用的資源,無論是工作、娛樂還是教育。但是你能指望這個 AI 聊天機器人始終提供事實嗎? ChatGPT 是否會撒謊,或者它只會為您提供事實信息?
在訓練期間,ChatGPT 從網絡上的來源獲取數據,例如政府和機構網站、科學期刊、研究、新聞文章、播客、在線論壇、書籍、數據庫、電影、紀錄片和社交媒體。
具體來說,ChatGPT-3 是使用一個包含 570GB 數據的廣泛信息數據庫進行訓練的。正如 Science Focus 的一篇文章所述,在 GPT-3 系統的開發過程中,輸入了 3000 億字的信息。
這裏值得註意的是,ChatGPT 僅被提供了 2021 年之前存在的數據。這意味著聊天機器人無法回答與近期事件相關的問題。 ChatGPT 也無法訪問互聯網。它在訓練中提供的數據是唯一用於滿足用戶提示的數據。
但是,ChatGPT 只是向您提供事實,還是在其響應中混入了一些更加模棱兩可的信息?另外,ChatGPT 會騙你嗎?
雖然 ChatGPT 經常向用戶提供真實信息,但它確實具有“說謊”的能力。當然,ChatGPT 並沒有決定惡意欺騙用戶,因為它根本做不到。畢竟,ChatGPT 是一種語言處理工具,而不是對真實、有知覺的人的模仿。
然而,ChatGPT 在技術上仍然可以通過一種稱為 AI 幻覺的現象說謊。
AI 幻覺涉及 AI 系統提供的信息看似合理或似是而非,但實際上根本不是真的。事實上,人工智能幻覺可以提供它在訓練期間從未被餵食的信息。或者,當人工智能系統提供與提示或請求無關的信息時,它就會發生。人工智能系統甚至可能在幻覺事件中聲稱自己是人類。
聊天機器人等人工智能系統陷入幻覺陷阱有幾個原因:它們缺乏對現實世界的理解、軟件錯誤以及所提供數據的局限性。
如前所述,ChatGPT 只能使用截至 2021 年發布的數據提供信息,這無疑限制了它可以滿足的提示類型。
ChatGPT 的一大問題是它在向用戶提供信息時也可能成為偏見的犧牲品。甚至 ChatGPT 的創建者也表示,該人工智能系統過去一直“在政治上有偏見、令人反感”,並且“在其他方面令人反感”。據獨立報報道,ChatGPT 的開發人員致力於解決這個問題,但這並不意味著它不再構成風險。
當被問及時,ChatGPT 表示其可能提供不準確信息的原因包括以下幾點:
因此,ChatGPT 本身表示,在某些情況下,它不會向用戶提供準確的信息。
在同一次對話中的另一個回應中,ChatGPT 表示“通過其他來源驗證 [它提供的] 任何信息總是一個好主意。”
因為它可以提供虛假信息,所以您顯然不能 100% 信任 ChatGPT。
您可以通過設置有關如何回答您的特定參數來降低 AI 聊天機器人出現幻覺的風險。但是,仍然不能保證一些虛假信息不會從裂縫中溜走。
因此,最好檢查 ChatGPT 提供給您的任何信息,尤其是在您請求有關最近事件的信息時。通過參考其他來源來仔細檢查此數據可以幫助您確定 ChatGPT 的說法是否正確,並可以防止您做出不明智的決定。
不幸的是,您不能依賴 ChatGPT 100% 地提供真實、公正的信息。這個由 AI 驅動的聊天機器人無疑是有用的,可以通過多種方式為您提供幫助,但始終值得驗證它提供的信息是否真實。