Skip to the content

Open IA

AI News

  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Search

Category

Research

  • Neural MMO: A massively multiagent game environment

    20 Mar
  • Better language models and their implications

    20 Mar
  • Better language models and their implications

    20 Mar
  • Computational limitations in robust classification and win-win results

    20 Mar
  • How AI training scales

    20 Mar
  • Quantifying generalization in reinforcement learning

    20 Mar
  • Spinning Up in Deep RL

    20 Mar
  • Learning concepts with energy functions

    20 Mar
  • Plan online, learn offline: Efficient learning and exploration via model-based control

    20 Mar
  • Reinforcement learning with prediction-based rewards

    20 Mar
  • FFJORD: Free-form continuous dynamics for scalable reversible generative models

    20 Mar
  • FFJORD: Free-form continuous dynamics for scalable reversible generative models

    20 Mar
  • The International 2018: Results

    20 Mar
  • Large-scale study of curiosity-driven learning

    20 Mar
  • OpenAI Five Benchmark: Results

    20 Mar
  • Learning dexterity

    20 Mar
  • Variational option discovery algorithms

    20 Mar
  • Glow: Better reversible generative models

    20 Mar
  • Learning Montezuma’s Revenge from a single demonstration

    20 Mar
  • OpenAI Five

    20 Mar
  • Retro Contest: Results

    20 Mar
  • Learning policy representations in multiagent systems

    20 Mar
  • GamePad: A learning environment for theorem proving

    20 Mar
  • Gym Retro

    20 Mar
  • AI and compute

    20 Mar
  • Evolved Policy Gradients

    20 Mar
  • Gotta Learn Fast: A new benchmark for generalization in RL

    20 Mar
  • Retro Contest

    20 Mar
  • Variance reduction for policy gradient with action-dependent factorized baselines

    20 Mar
  • Improving GANs using optimal transport

    20 Mar
  • On first-order meta-learning algorithms

    20 Mar
  • Reptile: A scalable meta-learning algorithm

    20 Mar
  • Some considerations on learning to explore via meta-reinforcement learning

    20 Mar
  • Multi-Goal Reinforcement Learning: Challenging robotics environments and request for research

    20 Mar
  • Ingredients for robotics research

    20 Mar
  • Interpretable machine learning through teaching

    20 Mar
  • Interpretable machine learning through teaching

    20 Mar
  • Discovering types for entity disambiguation

    20 Mar
  • Requests for Research 2.0

    20 Mar
  • Scaling Kubernetes to 2,500 nodes

    20 Mar
  • Block-sparse GPU kernels

    20 Mar
  • Learning sparse neural networks through L₀ regularization

    20 Mar
  • Interpretable and pedagogical examples

    20 Mar
  • Learning a hierarchy

    20 Mar
  • Generalizing from simulation

    20 Mar
  • Sim-to-real transfer of robotic control with dynamics randomization

    20 Mar
  • Asymmetric actor critic for image-based robot learning

    20 Mar
  • Domain randomization and generative models for robotic grasping

    20 Mar
  • Meta-learning for wrestling

    20 Mar
  • Competitive self-play

    20 Mar
  • Nonlinear computation in deep linear networks

    20 Mar
  • Learning to model other minds

    20 Mar
  • Learning with opponent-learning awareness

    20 Mar
  • Learning with opponent-learning awareness

    20 Mar
  • OpenAI Baselines: ACKTR & A2C

    20 Mar
  • More on Dota 2

    20 Mar
  • Dota 2

    20 Mar
  • Gathering human feedback

    20 Mar
  • Better exploration with parameter noise

    20 Mar
  • Proximal Policy Optimization

    20 Mar
  • Robust adversarial inputs

    20 Mar
  • Hindsight Experience Replay

    20 Mar
  • Teacher–student curriculum learning

    20 Mar
  • Faster physics in Python

    20 Mar
  • Learning to cooperate, compete, and communicate

    20 Mar
  • UCB exploration via Q-ensembles

    20 Mar
  • OpenAI Baselines: DQN

    20 Mar
  • Robots that learn

    20 Mar
  • Roboschool

    20 Mar
  • Equivalence between policy gradients and soft Q-learning

    20 Mar
  • Stochastic Neural Networks for hierarchical reinforcement learning

    20 Mar
  • Stochastic Neural Networks for hierarchical reinforcement learning

    20 Mar
  • Unsupervised sentiment neuron

    20 Mar
  • Unsupervised sentiment neuron

    20 Mar
  • Spam detection in the physical world

    20 Mar
  • Spam detection in the physical world

    20 Mar
  • Evolution strategies as a scalable alternative to reinforcement learning

    20 Mar
  • One-shot imitation learning

    20 Mar
  • Learning to communicate

    20 Mar
  • Emergence of grounded compositional language in multi-agent populations

    20 Mar
  • Prediction and control with temporal segment models

    20 Mar
  • Third-person imitation learning

    20 Mar
  • PixelCNN++: Improving the PixelCNN with discretized logistic mixture likelihood and other modifications

    20 Mar
  • Universe

    20 Mar
  • #Exploration: A study of count-based exploration for deep reinforcement learning

    20 Mar
  • #Exploration: A study of count-based exploration for deep reinforcement learning

    20 Mar
  • On the quantitative analysis of decoder-based generative models

    20 Mar
  • A connection between generative adversarial networks, inverse reinforcement learning, and energy-based models

    20 Mar
  • RL²: Fast reinforcement learning via slow reinforcement learning

    20 Mar
  • Variational lossy autoencoder

    20 Mar
  • Extensions and limitations of the neural GPU

    20 Mar
  • Transfer from simulation to real world through learning deep inverse dynamics model

    20 Mar
  • Infrastructure for deep learning

    20 Mar
  • Generative models

    20 Mar
  • OpenAI Gym Beta

    20 Mar
  • Weight normalization: A simple reparameterization to accelerate training of deep neural networks

    20 Mar

Newer

© 2026 Open IA

Design Jean-Louis Maso

Gérer le consentement
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel Toujours activé
L’accès ou le stockage technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
L’accès ou le stockage technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
  • Gérer les options
  • Gérer les services
  • Gérer {vendor_count} fournisseurs
  • En savoir plus sur ces finalités
Voir les préférences
  • {title}
  • {title}
  • {title}