Skip to the content

Open IA

AI News

  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Search

Category

Research

  • Efficient training of language models to fill in the middle

    12 Déc
  • DALL·E 2 pre-training mitigations

    12 Déc
  • Learning to play Minecraft with Video PreTraining

    12 Déc
  • Evolution through large models

    12 Déc
  • Techniques for training large neural networks

    12 Déc
  • Teaching models to express their uncertainty in words

    12 Déc
  • Hierarchical text-conditional image generation with CLIP latents

    12 Déc
  • A research agenda for assessing the economic impacts of code generation models

    12 Déc
  • Solving (some) formal math olympiad problems

    12 Déc
  • Text and code embeddings by contrastive pre-training

    12 Déc
  • WebGPT: Improving the factual accuracy of language models through web browsing

    12 Déc
  • Solving math word problems

    12 Déc
  • TruthfulQA: Measuring how models mimic human falsehoods

    12 Déc
  • Introducing Triton: Open-source GPU programming for neural networks

    12 Déc
  • Evaluating large language models trained on code

    12 Déc
  • Multimodal neurons in artificial neural networks

    12 Déc
  • Understanding the capabilities, limitations, and societal impact of large language models

    12 Déc
  • Understanding the capabilities, limitations, and societal impact of large language models

    12 Déc
  • Scaling Kubernetes to 7,500 nodes

    12 Déc
  • CLIP: Connecting text and images

    12 Déc
  • DALL·E: Creating images from text

    12 Déc
  • DALL·E: Creating images from text

    12 Déc
  • Generative language modeling for automated theorem proving

    12 Déc
  • Image GPT

    12 Déc
  • Language models are few-shot learners

    12 Déc
  • AI and efficiency

    12 Déc
  • Jukebox

    12 Déc
  • Improving verifiability in AI development

    12 Déc
  • Improving verifiability in AI development

    12 Déc
  • OpenAI Microscope

    12 Déc
  • Scaling laws for neural language models

    12 Déc
  • Scaling laws for neural language models

    12 Déc
  • Dota 2 with large scale deep reinforcement learning

    12 Déc
  • Deep double descent

    12 Déc
  • Procgen Benchmark

    12 Déc
  • GPT-2: 1.5B release

    12 Déc
  • Solving Rubik’s Cube with a robot hand

    12 Déc
  • Emergent tool use from multi-agent interaction

    12 Déc
  • GPT-2: 6-month follow-up

    12 Déc
  • MuseNet

    12 Déc
  • Generative modeling with sparse transformers

    12 Déc
  • OpenAI Five defeats Dota 2 world champions

    12 Déc
  • Implicit generation and generalization methods for energy-based models

    12 Déc
  • Neural MMO: A massively multiagent game environment

    12 Déc
  • Better language models and their implications

    12 Déc
  • Better language models and their implications

    12 Déc
  • Computational limitations in robust classification and win-win results

    12 Déc
  • How AI training scales

    12 Déc
  • Quantifying generalization in reinforcement learning

    12 Déc
  • Spinning Up in Deep RL

    12 Déc
  • Learning concepts with energy functions

    12 Déc
  • Plan online, learn offline: Efficient learning and exploration via model-based control

    12 Déc
  • Reinforcement learning with prediction-based rewards

    12 Déc
  • FFJORD: Free-form continuous dynamics for scalable reversible generative models

    12 Déc
  • FFJORD: Free-form continuous dynamics for scalable reversible generative models

    12 Déc
  • The International 2018: Results

    12 Déc
  • Large-scale study of curiosity-driven learning

    12 Déc
  • OpenAI Five Benchmark: Results

    12 Déc
  • Learning dexterity

    12 Déc
  • Variational option discovery algorithms

    12 Déc
  • Glow: Better reversible generative models

    12 Déc
  • Learning Montezuma’s Revenge from a single demonstration

    12 Déc
  • OpenAI Five

    12 Déc
  • Retro Contest: Results

    12 Déc
  • Learning policy representations in multiagent systems

    12 Déc
  • GamePad: A learning environment for theorem proving

    12 Déc
  • Gym Retro

    12 Déc
  • AI and compute

    12 Déc
  • Evolved Policy Gradients

    12 Déc
  • Gotta Learn Fast: A new benchmark for generalization in RL

    12 Déc
  • Retro Contest

    12 Déc
  • Variance reduction for policy gradient with action-dependent factorized baselines

    12 Déc
  • Improving GANs using optimal transport

    12 Déc
  • On first-order meta-learning algorithms

    12 Déc
  • Reptile: A scalable meta-learning algorithm

    12 Déc
  • Some considerations on learning to explore via meta-reinforcement learning

    12 Déc
  • Multi-Goal Reinforcement Learning: Challenging robotics environments and request for research

    12 Déc
  • Ingredients for robotics research

    12 Déc
  • Interpretable machine learning through teaching

    12 Déc
  • Interpretable machine learning through teaching

    12 Déc
  • Discovering types for entity disambiguation

    12 Déc
  • Requests for Research 2.0

    12 Déc
  • Scaling Kubernetes to 2,500 nodes

    12 Déc
  • Block-sparse GPU kernels

    12 Déc
  • Learning sparse neural networks through L₀ regularization

    12 Déc
  • Interpretable and pedagogical examples

    12 Déc
  • Learning a hierarchy

    12 Déc
  • Generalizing from simulation

    12 Déc
  • Sim-to-real transfer of robotic control with dynamics randomization

    12 Déc
  • Asymmetric actor critic for image-based robot learning

    12 Déc
  • Domain randomization and generative models for robotic grasping

    12 Déc
  • Meta-learning for wrestling

    12 Déc
  • Competitive self-play

    12 Déc
  • Nonlinear computation in deep linear networks

    12 Déc
  • Learning to model other minds

    12 Déc
  • Learning with opponent-learning awareness

    12 Déc
  • Learning with opponent-learning awareness

    12 Déc
  • OpenAI Baselines: ACKTR & A2C

    12 Déc
  • More on Dota 2

    12 Déc
  • Dota 2

    12 Déc

Newer

Older

© 2025 Open IA

Design Jean-Louis Maso

Gérer le consentement
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel Toujours activé
L’accès ou le stockage technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
L’accès ou le stockage technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
  • Gérer les options
  • Gérer les services
  • Gérer {vendor_count} fournisseurs
  • En savoir plus sur ces finalités
Voir les préférences
  • {title}
  • {title}
  • {title}