Le fait de demander des réponses concises à des chatbots IA augmente leur tendance à halluciner, car les IA sacrifient la précision des faits quand elles donnent des réponses courtes, selon une nouvelle étude

Le fait de demander des réponses concises à des chatbots IA augmente leur tendance à halluciner, car les IA sacrifient la précision des faits quand elles donnent des réponses courtes, selon une nouvelle étudeSelon une étude récente de Giskard, le fait ...

Le fait de demander des réponses concises à des chatbots IA augmente leur tendance à halluciner, car les IA sacrifient la précision des faits quand elles donnent des réponses courtes, selon une nouvelle étude

Selon une étude récente de Giskard, le fait de demander à l'un des chatbots d'intelligence artificielle (IA) les plus populaires d'être plus concis « a un impact considérable sur les taux d'hallucination ». L'étude a révélé que l'inclusion de ces instructions diminuait la résistance aux hallucinations...