Skip to the content

Open IA

AI News

  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Search
  • How to make AI that’s good for people

    12 Mar
  • Retro Contest

    12 Mar
  • Variance reduction for policy gradient with action-dependent factorized baselines

    12 Mar
  • Report from the OpenAI hackathon

    12 Mar
  • Improving GANs using optimal transport

    12 Mar
  • On first-order meta-learning algorithms

    12 Mar
  • Reptile: A scalable meta-learning algorithm

    12 Mar
  • OpenAI Scholars

    12 Mar
  • Some considerations on learning to explore via meta-reinforcement learning

    12 Mar
  • Ingredients for robotics research

    12 Mar
  • Multi-Goal Reinforcement Learning: Challenging robotics environments and request for research

    12 Mar
  • OpenAI hackathon

    12 Mar
  • Preparing for malicious uses of AI

    12 Mar
  • OpenAI supporters

    12 Mar
  • Interpretable machine learning through teaching

    12 Mar
  • Interpretable machine learning through teaching

    12 Mar
  • Discovering types for entity disambiguation

    12 Mar
  • Requests for Research 2.0

    12 Mar
  • Scaling Kubernetes to 2,500 nodes

    12 Mar
  • Block-sparse GPU kernels

    12 Mar
  • Learning sparse neural networks through L₀ regularization

    12 Mar
  • Interpretable and pedagogical examples

    12 Mar
  • Learning a hierarchy

    12 Mar
  • Generalizing from simulation

    12 Mar
  • Asymmetric actor critic for image-based robot learning

    12 Mar
  • Sim-to-real transfer of robotic control with dynamics randomization

    12 Mar
  • Domain randomization and generative models for robotic grasping

    12 Mar
  • Competitive self-play

    12 Mar
  • Meta-learning for wrestling

    12 Mar
  • Nonlinear computation in deep linear networks

    12 Mar
  • Learning to model other minds

    12 Mar
  • Learning with opponent-learning awareness

    12 Mar
  • Learning with opponent-learning awareness

    12 Mar
  • OpenAI Baselines: ACKTR & A2C

    12 Mar
  • More on Dota 2

    12 Mar
  • Dota 2

    12 Mar
  • Gathering human feedback

    12 Mar
  • Better exploration with parameter noise

    12 Mar
  • Proximal Policy Optimization

    12 Mar
  • Robust adversarial inputs

    12 Mar
  • Hindsight Experience Replay

    12 Mar
  • Teacher–student curriculum learning

    12 Mar
  • Faster physics in Python

    12 Mar
  • Learning from human preferences

    12 Mar
  • Learning to cooperate, compete, and communicate

    12 Mar
  • UCB exploration via Q-ensembles

    12 Mar
  • OpenAI Baselines: DQN

    12 Mar
  • Robots that learn

    12 Mar
  • Roboschool

    12 Mar
  • Equivalence between policy gradients and soft Q-learning

    12 Mar
  • Stochastic Neural Networks for hierarchical reinforcement learning

    12 Mar
  • Stochastic Neural Networks for hierarchical reinforcement learning

    12 Mar
  • Unsupervised sentiment neuron

    12 Mar
  • Unsupervised sentiment neuron

    12 Mar
  • Spam detection in the physical world

    12 Mar
  • Spam detection in the physical world

    12 Mar
  • Evolution strategies as a scalable alternative to reinforcement learning

    12 Mar
  • One-shot imitation learning

    12 Mar
  • Distill

    12 Mar
  • Learning to communicate

    12 Mar
  • Emergence of grounded compositional language in multi-agent populations

    12 Mar
  • Prediction and control with temporal segment models

    12 Mar
  • Third-person imitation learning

    12 Mar
  • Attacking machine learning with adversarial examples

    12 Mar
  • Adversarial attacks on neural network policies

    12 Mar
  • Team update

    12 Mar
  • PixelCNN++: Improving the PixelCNN with discretized logistic mixture likelihood and other modifications

    12 Mar
  • Faulty reward functions in the wild

    12 Mar
  • Universe

    12 Mar
  • OpenAI and Microsoft

    12 Mar
  • #Exploration: A study of count-based exploration for deep reinforcement learning

    12 Mar
  • #Exploration: A study of count-based exploration for deep reinforcement learning

    12 Mar
  • On the quantitative analysis of decoder-based generative models

    12 Mar
  • A connection between generative adversarial networks, inverse reinforcement learning, and energy-based models

    12 Mar
  • RL²: Fast reinforcement learning via slow reinforcement learning

    12 Mar
  • Variational lossy autoencoder

    12 Mar
  • Extensions and limitations of the neural GPU

    12 Mar
  • Semi-supervised knowledge transfer for deep learning from private training data

    12 Mar
  • Report from the self-organizing conference

    12 Mar
  • Transfer from simulation to real world through learning deep inverse dynamics model

    12 Mar
  • Infrastructure for deep learning

    12 Mar
  • Machine Learning Unconference

    12 Mar
  • Team update

    12 Mar
  • Special projects

    12 Mar
  • Concrete AI safety problems

    12 Mar
  • OpenAI technical goals

    12 Mar
  • Generative models

    12 Mar
  • Adversarial training methods for semi-supervised text classification

    12 Mar
  • Team update

    12 Mar
  • OpenAI Gym Beta

    12 Mar
  • Welcome, Pieter and Shivon!

    12 Mar
  • Team++

    12 Mar
  • Weight normalization: A simple reparameterization to accelerate training of deep neural networks

    12 Mar
  • Introducing OpenAI

    12 Mar

Newer

© 2026 Open IA

Design Jean-Louis Maso

Gérer le consentement
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel Toujours activé
L’accès ou le stockage technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
L’accès ou le stockage technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
  • Gérer les options
  • Gérer les services
  • Gérer {vendor_count} fournisseurs
  • En savoir plus sur ces finalités
Voir les préférences
  • {title}
  • {title}
  • {title}