Des chercheurs proposent un outil permettant d'empoisonner les données volées pour que les systèmes d'IA renvoient des résultats erronés
mais cette solution menace de réduire la fiabilité globale des LLM
Des scientifiques explorent une méthode visant empêcher le vol de données pour l'entraînement de l'IA : polluer les graphes de connaissances. Leur technique permet de rendre inutilisables les données de grande valeur volées utilisées dans les systèmes d'IA. Elle consiste notamment à injecter des...
Des chercheurs proposent un outil permettant d’empoisonner les données volées pour que les systèmes d’IA renvoient des résultats erronés, mais cette solution menace de réduire la fiabilité globale des LLM
Des chercheurs proposent un outil permettant d'empoisonner les données volées pour que les systèmes d'IA renvoient des résultats erronés mais cette solution menace de réduire la fiabilité globale des LLMDes scientifiques explorent une méthode visant e...