Les scientifiques d’OpenAI veulent un « bunker de l’apocalypse » avant que l’AGI ne surpasse l’intelligence humaine et ne menace l’humanité, une perspective que d’autres experts en IA qualifient d’illusion

Les scientifiques d'OpenAI veulent un « bunker de l'apocalypse » avant que l'AGI ne surpasse l'intelligence humaine et ne menace l'humanité une perspective que d'autres experts en IA qualifient d'illusionL'ancien scientifique en chef d'OpenAI Ilya Sut...

Les scientifiques d'OpenAI veulent un « bunker de l'apocalypse » avant que l'AGI ne surpasse l'intelligence humaine et ne menace l'humanité
une perspective que d'autres experts en IA qualifient d'illusion

L'ancien scientifique en chef d'OpenAI Ilya Sutskever reste convaincu que l'IA pose un risque existentiel pour l'humanité. Avant de quitter OpenAI, il avait élaboré un plan visant à mettre à l'abri les scientifiques du laboratoire avant le lancement de l'intelligence artificielle générale (AGI)....