在發現員工將敏感代碼上傳到平臺後,三星電子禁止員工使用流行的生成人工智能 (AI) 工具,如 ChatGPT,從而阻礙了此類技術在工作場所的傳播。

這家總部位於韓國水原的公司周一通過彭博新聞社看到的一份備忘錄,將新政策通知了其最大部門之一的員工。該文件稱,該公司擔心傳輸到 AI 平臺(包括 Google Bard 和 Bing)的數據存儲在外部服務器上,難以檢索和刪除,最終可能會泄露給其他用戶。

該公司上個月進行了一項關於內部使用 AI 工具的調查,並表示 65% 的受訪者認為此類服務存在安全風險。備忘錄稱,4 月初,三星工程師將內部源代碼上傳到 ChatGPT,不小心泄露了內部源代碼。目前尚不清楚這些信息包含什麽內容,三星代表拒絕置評。

“內部和外部對 ChatGPT 等生成式人工智能平臺的興趣一直在增長,”三星告訴其員工。 “雖然這種興趣集中在這些平臺的實用性和效率上,但人們也越來越擔心生成人工智能帶來的安全風險。”

三星只是最新一家對這項技術表示擔憂的大公司。今年 2 月,就在 OpenAI 的聊天機器人服務激起人們對該技術的興趣風暴僅幾個月後,包括摩根大通、美國銀行和花旗集團在內的一些華爾街銀行就禁止或限制了它的使用。出於對隱私的擔憂,意大利也禁止使用 ChatGPT,不過它最近幾天改變了立場。

三星的新規定禁止在公司自有的電腦、平板電腦和手機以及內部網絡上使用生成式人工智能系統。它們不會影響公司銷售給消費者的設備,例如 Android 智能手機和 Windows 筆記本電腦。

三星要求在個人設備上使用 ChatGPT 和其他工具的員工不要提交任何可能泄露其知識產權的公司相關信息或個人數據。它警告說,違反新政策可能會導致被解雇。

三星在備忘錄中表示:“我們要求您認真遵守我們的安全準則,否則可能會導致公司信息泄露或泄露,導致紀律處分,甚至包括解雇。”

與此同時,該公司正在創建自己的內部人工智能工具,用於翻譯和總結文件以及軟件開發。它還在研究阻止敏感公司信息上傳到外部服務的方法。上個月,ChatGPT 添加了一種“隱身”模式,允許用戶阻止他們的聊天被用於 AI 模型訓練。

“總部正在審查安全措施,以創造一個安全的環境,以安全地使用生成人工智能來提高員工的生產力和效率,”備忘錄說。 “但是,在準備好這些措施之前,我們暫時限制生成人工智能的使用。”