Les chercheurs de Palo Alto Networks ont mené une analyse approfondie de la plateforme Vertex AI de Google Cloud, révélant des problèmes de sécurité potentiels. Vertex AI est une plateforme d'intelligence artificielle qui permet aux développeurs de créer et de déployer des modèles d'apprentissage automatique. Les chercheurs ont découvert que des agents d'intelligence artificielle pouvaient être utilisés pour exploiter des vulnérabilités dans le système, ce qui a conduit à une réaction rapide de la part de Google pour résoudre ces problèmes. Les vulnérabilités découvertes étaient liées à la manière dont les agents d'intelligence artificielle pouvaient interagir avec la plateforme, permettant potentiellement à des attaquants d'accéder à des données sensibles ou de prendre le contrôle de certaines fonctionnalités. Les chercheurs ont travaillé en étroite collaboration avec Google pour s'assurer que ces vulnérabilités soient résolues avant que des attaquants ne puissent les exploiter. Les correctifs apportés par Google visent à renforcer la sécurité de la plateforme Vertex AI, protégeant ainsi les utilisateurs contre de potentielles attaques. Cette affaire souligne l'importance de la collaboration entre les entreprises technologiques et les chercheurs en sécurité pour identifier et résoudre les problèmes de sécurité avant qu'ils ne deviennent critiques. La communauté de la cybersécurité doit rester vigilante face aux menaces émergentes liées à l'intelligence artificielle, car ces technologies deviennent de plus en plus intégrées dans nos systèmes et processus.