Gartner Security & Risk Management Summit 2023 National Harbor : Faits saillants de la troisième journée
"Il existe déjà de nombreux modèles d'IA qui ont été opérationnalisés et peuvent être compromis et attaqués. Une enquête Gartner de 2021 a révélé que 73 % des organisations avaient déjà déployé des centaines ou des milliers de modèles d'IA."
"Les compromis et les attaques couvrent toutes les étapes du cycle de vie de l'IA, y compris l'empoisonnement des données ; les problèmes de confidentialité ; la manipulation des résultats des modèles ; et l'utilisation abusive, la compromission ou le vol de modèles ou de données."
"Il existe deux idées fausses courantes concernant les menaces de sécurité de l'IA : la plupart des attaques d'IA ne sont le fait que de l'extérieur, nous n'avons donc pas à regarder à l'intérieur ; et la plupart des attaques d'IA sont compliquées, alors ne transpirons pas les petites choses."
"Les RSSI et les équipes d'IA perçoivent différemment le risque provenant de l'IA. Les équipes d'IA pensent que le risque lié à l'IA est plus susceptible de se matérialiser et sont plus préoccupées par le risque global lié à l'IA. Ce n'est pas tous les jours que quelqu'un est plus préoccupé par le risque lié à l'information que l'équipe de sécurité."
"AI TRiSM aide à assurer la gouvernance, la fiabilité, l'équité, la fiabilité, la confidentialité, la sécurité et la conformité des solutions d'IA, transformant les risques non gérés en risques gérés."
"D'ici 2026, les organisations qui opérationnaliseront la transparence, la confiance et la sécurité de l'IA verront leurs modèles d'IA atteindre une amélioration des résultats de 50 % en termes d'adoption, d'objectifs commerciaux et d'acceptation par les utilisateurs."
Apprenez-en plus sur AI TRiSM dans les questions-réponses de Gartner "Pourquoi la confiance et la sécurité sont essentielles pour l'avenir de l'IA générative".