Skip to the content

Open IA

AI News

  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Search
  • Teacher–student curriculum learning

    17 Fév
  • Faster physics in Python

    17 Fév
  • Learning from human preferences

    17 Fév
  • Learning to cooperate, compete, and communicate

    17 Fév
  • UCB exploration via Q-ensembles

    17 Fév
  • OpenAI Baselines: DQN

    17 Fév
  • Robots that learn

    17 Fév
  • Roboschool

    17 Fév
  • Equivalence between policy gradients and soft Q-learning

    17 Fév
  • Stochastic Neural Networks for hierarchical reinforcement learning

    17 Fév
  • Stochastic Neural Networks for hierarchical reinforcement learning

    17 Fév
  • Unsupervised sentiment neuron

    17 Fév
  • Unsupervised sentiment neuron

    17 Fév
  • Spam detection in the physical world

    17 Fév
  • Spam detection in the physical world

    17 Fév
  • Evolution strategies as a scalable alternative to reinforcement learning

    17 Fév
  • One-shot imitation learning

    17 Fév
  • Distill

    17 Fév
  • Learning to communicate

    17 Fév
  • Emergence of grounded compositional language in multi-agent populations

    17 Fév
  • Prediction and control with temporal segment models

    17 Fév
  • Third-person imitation learning

    17 Fév
  • Attacking machine learning with adversarial examples

    17 Fév
  • Adversarial attacks on neural network policies

    17 Fév
  • Team update

    17 Fév
  • PixelCNN++: Improving the PixelCNN with discretized logistic mixture likelihood and other modifications

    17 Fév
  • Faulty reward functions in the wild

    17 Fév
  • Universe

    17 Fév
  • OpenAI and Microsoft

    17 Fév
  • #Exploration: A study of count-based exploration for deep reinforcement learning

    17 Fév
  • #Exploration: A study of count-based exploration for deep reinforcement learning

    17 Fév
  • On the quantitative analysis of decoder-based generative models

    17 Fév
  • A connection between generative adversarial networks, inverse reinforcement learning, and energy-based models

    17 Fév
  • RL²: Fast reinforcement learning via slow reinforcement learning

    17 Fév
  • Variational lossy autoencoder

    17 Fév
  • Extensions and limitations of the neural GPU

    17 Fév
  • Semi-supervised knowledge transfer for deep learning from private training data

    17 Fév
  • Report from the self-organizing conference

    17 Fév
  • Transfer from simulation to real world through learning deep inverse dynamics model

    17 Fév
  • Infrastructure for deep learning

    17 Fév
  • Machine Learning Unconference

    17 Fév
  • Team update

    17 Fév
  • Special projects

    17 Fév
  • Concrete AI safety problems

    17 Fév
  • OpenAI technical goals

    17 Fév
  • Generative models

    17 Fév
  • Adversarial training methods for semi-supervised text classification

    17 Fév
  • Team update

    17 Fév
  • OpenAI Gym Beta

    17 Fév
  • Welcome, Pieter and Shivon!

    17 Fév
  • Team++

    17 Fév
  • Weight normalization: A simple reparameterization to accelerate training of deep neural networks

    17 Fév
  • Introducing OpenAI

    17 Fév

Newer

© 2026 Open IA

Design Jean-Louis Maso

Gérer le consentement
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel Toujours activé
L’accès ou le stockage technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
L’accès ou le stockage technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
  • Gérer les options
  • Gérer les services
  • Gérer {vendor_count} fournisseurs
  • En savoir plus sur ces finalités
Voir les préférences
  • {title}
  • {title}
  • {title}