Les spécialistes de l’IA générative loin d’avoir éradiqué toutes les défaillances de leurs modèles

Si l’intelligence artificielle (IA) générative peut être utilisée à bon escient, aidant des millions d’internautes au quotidien, cette technologie possède une face bien plus sombre. Un ingénieur de Microsoft et une start-up spécialisée dans l’analyse de grands modèles de langage ont récemment mis en lumière les défaillances de ces outils. Les dérives de l’IA générative […]

Lignes de codes scrutées à la loupe.

Si l’intelligence artificielle (IA) générative peut être utilisée à bon escient, aidant des millions d’internautes au quotidien, cette technologie possède une face bien plus sombre. Un ingénieur de Microsoft et une start-up spécialisée dans l’analyse de grands modèles de langage ont récemment mis en lumière les défaillances de ces outils.

Les dérives de l’IA générative en agacent plus d’un

Shane Jones, ingénieur spécialisée dans l’IA, membre de la red team de Microsoft, qui a pour habitude de tester les vulnérabilités des solutions qu’elle développe, s’est penché sur Copilot Designer, le générateur d’images développé par Microsoft grâce aux technologies d’OpenAI.

Ces trois derniers mois, l’ingénieur a réussi à générer des images à caractère offensant, violent ou sexuel. Consterné, Shane Jones a fait part de ses inquiétudes dans deux courriers adressés à la Federal Trade Commission (FTC) et au conseil d’Administration Microsoft. « J’ai exhorté à plusieurs reprises Microsoft à retirer Copilot Designer de l’usage public jusqu’à ce que de meilleures garanties puissent être mises en place, » indique-t-il dans sa lettre à l’attention de la FTC.

« Nous nous engageons à répondre à toutes les préoccupations des employés conformément aux politiques de notre entreprise et apprécions les efforts des employés pour étudier et tester notre dernière technologie afin d’améliorer encore sa sécurité, » déclare Microsoft, en réponse à la lettre de son employé. Shane Jones reconnaît que le géant technologie n’est pas la seule entreprise à rencontrer de tels problèmes, mais déplore son inaction. Il cite notamment Google qui empêche Gemini de générer des êtres humains après que celui-ci s’est mis à créer des images historiques incohérentes, voire problématiques.

L’ingénieur de Microsoft n’est pas le seul se pencher sur les dérives de l’IA. Dans un billet de blog, Patronus AI, une start-up américaine spécialisée dans l’évaluation des modèles de langage, indique qu’une grande partie de ces outils exploite des données protégées par le droit d’auteur, qu’ils soient open source ou non.

Afin d’appuyer ses propos, l’entreprise a testé de nombreuses solutions. Pour elle, GPT-4 est le modèle qui obtient les pires résultats vis-à-vis de la protection des droits d’auteur. Lorsqu’un utilisateur demande à l’outil d’OpenAI s’il est capable de compléter la suite d’un passage d’un livre, il s’exécute dans plus d’un cas sur deux.

Ces derniers mois, les plaintes visant des entreprises spécialisées dans l’IA générative se sont multipliées. La dernière en date, celle du New York Times qui considère qu’OpenAI et Microsoft ont « profité de la violation massive du droit d’auteur, de l’exploitation commerciale et du détournement de la propriété intellectuelle du média » pour former leurs IA génératives.