隨著生成式AI工具如ChatGPT等盛行,「影子AI」(員工未經企業同意使用AI工具)也成為企業需要面對的議題。影子AI帶來資料安全和風險管控的挑戰。要因應這些風險,企業可以修改應用程式和資料策略、定期員工培訓、制定易於理解的AI使用政策、評估供應商回答關鍵問題,以及進行盡職的調查。最終,企業也可以考慮建立專屬的生成式AI工具。這樣不僅可以利用AI,也能保護敏感資料,同時減輕員工負擔。
【老闆都不知道的資安風險:員工都在用的「影子 AI」,因應做法是什麼?】
https://buzzorange.com/techorange/2023/12/15/the-secrets-threat-of-employees-using-shadow-ai/
Source: buzzorange