Inception lance Mercury 2, le LLM à raisonnement le plus rapide, qui serait 5 fois plus rapide que les principaux LLM optimisés pour la vitesse, avec un coût d’inférence réduit

Inception lance Mercury 2, le LLM à raisonnement le plus rapide, qui serait 5 fois plus rapide que les principaux LLM optimisés pour la vitesse, avec un coût d'inférence réduitAlors que l'industrie de l'IA dépense des milliards pour gagner quelques fra...

Inception lance Mercury 2, le LLM à raisonnement le plus rapide, qui serait 5 fois plus rapide que les principaux LLM optimisés pour la vitesse, avec un coût d'inférence réduit

Alors que l'industrie de l'IA dépense des milliards pour gagner quelques fractions de seconde sur les modèles autorégressifs jeton par jeton, la génération basée sur la diffusion d'Inception est une avancée architecturale qui rend le raisonnement à haut débit natif au modèle. Fondée par des chercheurs de Stanford, UCLA et...