Apple aurait développé une technique qui permet d'exécuter les modèles d'IA localement sur l'iPhone plutôt que sur le cloud
selon une étude
Les grands modèles de langages (LLM) sont incroyablement gourmands en mémoires et cela constitue un défi majeur à surmonter pour les entreprises. Mais une étude publiée récemment par les chercheurs d'Apple évoque des pistes de solution pour une inférence efficace des modèles d'IA sur les appareils à mémoire limitée, dont les smartphones. Elle suggère qu'Apple...
Apple offre une prime d’un million $ à toute personne capable de pirater son nouveau système d’IA, qui dispose d’un chiffrement de bout en bout et supprime immédiatement la demande une fois la tâche accomplie
Apple aurait développé une technique qui permet d'exécuter les modèles d'IA localement sur l'iPhone plutôt que sur le cloud selon une étudeLes grands modèles de langages (LLM) sont incroyablement gourmands en mémoires et cela constitue un défi majeur ...