L’intelligence artificielle GPT-4 d’OpenAI peut exploiter de manière autonome les vulnérabilités dans les systèmes du monde réel en lisant les avis de sécurité décrivant les failles

Le grand modèle de langage GPT-4 d'OpenAI peut exploiter de manière autonome des vulnérabilités dans des systèmes du monde réel en lisant des avis de sécurité, si on lui donne un avis CVE décrivant la faille.Des agents d'IA, qui combinent de grands mod...

Le grand modèle de langage GPT-4 d'OpenAI peut exploiter de manière autonome des vulnérabilités dans des systèmes du monde réel en lisant des avis de sécurité, si on lui donne un avis CVE décrivant la faille.

Des agents d'IA, qui combinent de grands modèles de langage avec des logiciels d'automatisation, peuvent exploiter avec succès des vulnérabilités de sécurité dans le monde réel en lisant des avis de sécurité.

Dans un article récemment publié, quatre informaticiens de l'Université de l'Illinois...