我們中的許多人都輕率地使用 ChatGPT,但它會帶來您需要了解的嚴重安全和隱私問題。
2023 年 1 月,即推出僅兩個月後,ChatGPT(生成式預訓練轉換器)成為有史以來增長最快的應用程序,擁有超過 1 億用戶。
OpenAI 的高級聊天機器人可能重新激發了公眾對人工智能的興趣,但很少有人認真考慮與該產品相關的潛在安全風險。
ChatGPT:安全威脅和問題
支撐 ChatGPT 和其他聊天機器人的技術可能相似,但 ChatGPT 屬於自己的一類。如果你打算將它用作一種個人助理,這是個好消息,但如果你考慮到威脅行為者也在使用它,那就令人擔憂了。
網絡罪犯可以利用 ChatGPT 編寫惡意軟件、建立詐騙網站、生成網絡釣魚電子郵件、制造假新聞等。正因為如此,正如Bleeping Computer在分析中所說,ChatGPT 帶來的網絡安全風險可能大於收益。
與此同時,人們嚴重擔心 ChatGPT 本身存在某些未解決的漏洞。例如,2023 年 3 月,出現了一些用戶能夠查看他人對話標題的報告。正如The Verge當時報道的那樣,OpenAI 首席執行官 Sam Altman 解釋說,“開源庫中的一個錯誤”導致了這個問題。
這只是強調了限制您與 ChatGPT 共享的內容的重要性,ChatGPT 默認情況下會收集數量驚人的數據。科技巨頭三星以慘痛的方式了解到這一點,當時一群一直使用聊天機器人作為助手的員工不小心向其泄露了機密信息。
ChatGPT 是否威脅到您的隱私?
安全和隱私不是一回事,但它們密切相關並且經常交叉。如果 ChatGPT 是安全威脅,那麽它也是對隱私的威脅,反之亦然。但這在更實際的方面意味著什麽?ChatGPT 的安全和隱私政策是怎樣的?
從互聯網上搜集了數十億個單詞來創建 ChatGPT 的龐大數據庫。該數據庫處於持續擴展狀態,因為 ChatGPT 存儲用戶共享的任何內容。總部位於美國的非營利組織Common Sense給 ChatGPT 的隱私評估分數為 61%,並指出聊天機器人會收集個人身份信息 (PII) 和其他敏感數據。大多數此類數據已存儲或與某些第三方共享。
在任何情況下,您在使用 ChatGPT 時都應該小心,尤其是當您將其用於工作或處理敏感信息時。作為一般經驗法則,您不應與機器人分享您不想讓公眾知道的內容。
解決與 ChatGPT 相關的安全風險
人工智能將在某個時候受到監管,但很難想象一個它不構成安全威脅的世界。與所有技術一樣,它可以而且將會被濫用。
據Malwarebytes稱,未來聊天機器人將成為搜索引擎、語音助手和社交網絡不可或缺的一部分。他們將在各個行業發揮作用,從醫療保健和教育到金融和娛樂。
正如我們所知,這將從根本上改變安全性。但正如 Malwarebytes 還指出的那樣,網絡安全專業人員也可以使用 ChatGPT 和類似工具;例如尋找軟件中的錯誤,或網絡活動中的“可疑模式”。
提高認識是關鍵
從現在起五年或十年後,ChatGPT 能做什麽?我們只能推測,但我們可以肯定的是人工智能不會消失。
隨著更先進的聊天機器人的出現,整個行業都必須調整並學習如何負責任地使用它們。這包括已經被人工智能塑造的網絡安全行業。提高對與 AI 相關的安全風險的認識是關鍵,這將有助於確保以合乎道德的方式開發和使用這些技術。