Il est facile d'injecter de nouvelles informations médicales erronées dans les LLM, il suffit de modifier 0,001 % des données d'entrée pour rendre l'IA moins précise.
Une nouvelle étude évalue les menaces en simulant une attaque par empoisonnement des données contre The Pile, un ensemble de données populaire utilisé pour le développement des LLM. Les chercheurs ont constaté que le remplacement de seulement 0,001 % des jetons d'entraînement par des informations médicales erronées donne lieu à des...
Il est facile d’injecter de nouvelles informations médicales erronées dans les LLM, il suffit de modifier 0,001 % des données d’entrée pour rendre l’IA moins précise
Il est facile d'injecter de nouvelles informations médicales erronées dans les LLM, il suffit de modifier 0,001 % des données d'entrée pour rendre l'IA moins précise. Une nouvelle étude évalue les menaces en simulant une attaque par empoisonnement des ...