Skip to the content

Open IA

AI News

  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Search

Category

Research

  • Scaling laws for neural language models

    10 Avr
  • Dota 2 with large scale deep reinforcement learning

    10 Avr
  • Deep double descent

    10 Avr
  • Procgen Benchmark

    10 Avr
  • GPT-2: 1.5B release

    10 Avr
  • Solving Rubik’s Cube with a robot hand

    10 Avr
  • Emergent tool use from multi-agent interaction

    10 Avr
  • GPT-2: 6-month follow-up

    10 Avr
  • MuseNet

    10 Avr
  • Generative modeling with sparse transformers

    10 Avr
  • OpenAI Five defeats Dota 2 world champions

    10 Avr
  • Implicit generation and generalization methods for energy-based models

    10 Avr
  • Neural MMO: A massively multiagent game environment

    10 Avr
  • Better language models and their implications

    10 Avr
  • Better language models and their implications

    10 Avr
  • Computational limitations in robust classification and win-win results

    10 Avr
  • How AI training scales

    10 Avr
  • Quantifying generalization in reinforcement learning

    10 Avr
  • Spinning Up in Deep RL

    10 Avr
  • Learning concepts with energy functions

    10 Avr
  • Plan online, learn offline: Efficient learning and exploration via model-based control

    10 Avr
  • Reinforcement learning with prediction-based rewards

    10 Avr
  • FFJORD: Free-form continuous dynamics for scalable reversible generative models

    10 Avr
  • FFJORD: Free-form continuous dynamics for scalable reversible generative models

    10 Avr
  • The International 2018: Results

    10 Avr
  • Large-scale study of curiosity-driven learning

    10 Avr
  • OpenAI Five Benchmark: Results

    10 Avr
  • Learning dexterity

    10 Avr
  • Variational option discovery algorithms

    10 Avr
  • Glow: Better reversible generative models

    10 Avr
  • Learning Montezuma’s Revenge from a single demonstration

    10 Avr
  • OpenAI Five

    10 Avr
  • Retro Contest: Results

    10 Avr
  • Learning policy representations in multiagent systems

    10 Avr
  • GamePad: A learning environment for theorem proving

    10 Avr
  • Gym Retro

    10 Avr
  • AI and compute

    10 Avr
  • Evolved Policy Gradients

    10 Avr
  • Gotta Learn Fast: A new benchmark for generalization in RL

    10 Avr
  • Retro Contest

    10 Avr
  • Variance reduction for policy gradient with action-dependent factorized baselines

    10 Avr
  • Improving GANs using optimal transport

    10 Avr
  • On first-order meta-learning algorithms

    10 Avr
  • Reptile: A scalable meta-learning algorithm

    10 Avr
  • Some considerations on learning to explore via meta-reinforcement learning

    10 Avr
  • Multi-Goal Reinforcement Learning: Challenging robotics environments and request for research

    10 Avr
  • Ingredients for robotics research

    10 Avr
  • Interpretable machine learning through teaching

    10 Avr
  • Interpretable machine learning through teaching

    10 Avr
  • Discovering types for entity disambiguation

    10 Avr
  • Requests for Research 2.0

    10 Avr
  • Scaling Kubernetes to 2,500 nodes

    10 Avr
  • Block-sparse GPU kernels

    10 Avr
  • Learning sparse neural networks through L₀ regularization

    10 Avr
  • Interpretable and pedagogical examples

    10 Avr
  • Learning a hierarchy

    10 Avr
  • Generalizing from simulation

    10 Avr
  • Sim-to-real transfer of robotic control with dynamics randomization

    10 Avr
  • Asymmetric actor critic for image-based robot learning

    10 Avr
  • Domain randomization and generative models for robotic grasping

    10 Avr
  • Meta-learning for wrestling

    10 Avr
  • Competitive self-play

    10 Avr
  • Nonlinear computation in deep linear networks

    10 Avr
  • Learning to model other minds

    10 Avr
  • Learning with opponent-learning awareness

    10 Avr
  • Learning with opponent-learning awareness

    10 Avr
  • OpenAI Baselines: ACKTR & A2C

    10 Avr
  • More on Dota 2

    10 Avr
  • Dota 2

    10 Avr
  • Gathering human feedback

    10 Avr
  • Better exploration with parameter noise

    10 Avr
  • Proximal Policy Optimization

    10 Avr
  • Robust adversarial inputs

    10 Avr
  • Hindsight Experience Replay

    10 Avr
  • Teacher–student curriculum learning

    10 Avr
  • Faster physics in Python

    10 Avr
  • Learning to cooperate, compete, and communicate

    10 Avr
  • UCB exploration via Q-ensembles

    10 Avr
  • OpenAI Baselines: DQN

    10 Avr
  • Robots that learn

    10 Avr
  • Roboschool

    10 Avr
  • Equivalence between policy gradients and soft Q-learning

    10 Avr
  • Stochastic Neural Networks for hierarchical reinforcement learning

    10 Avr
  • Stochastic Neural Networks for hierarchical reinforcement learning

    10 Avr
  • Unsupervised sentiment neuron

    10 Avr
  • Unsupervised sentiment neuron

    10 Avr
  • Spam detection in the physical world

    10 Avr
  • Spam detection in the physical world

    10 Avr
  • Evolution strategies as a scalable alternative to reinforcement learning

    10 Avr
  • One-shot imitation learning

    10 Avr
  • Learning to communicate

    10 Avr
  • Emergence of grounded compositional language in multi-agent populations

    10 Avr
  • Prediction and control with temporal segment models

    10 Avr
  • Third-person imitation learning

    10 Avr
  • PixelCNN++: Improving the PixelCNN with discretized logistic mixture likelihood and other modifications

    10 Avr
  • Universe

    10 Avr
  • #Exploration: A study of count-based exploration for deep reinforcement learning

    10 Avr
  • #Exploration: A study of count-based exploration for deep reinforcement learning

    10 Avr
  • On the quantitative analysis of decoder-based generative models

    10 Avr
  • A connection between generative adversarial networks, inverse reinforcement learning, and energy-based models

    10 Avr

Newer

Older

© 2026 Open IA

Design Jean-Louis Maso

Gérer le consentement
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel Toujours activé
L’accès ou le stockage technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
L’accès ou le stockage technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
  • Gérer les options
  • Gérer les services
  • Gérer {vendor_count} fournisseurs
  • En savoir plus sur ces finalités
Voir les préférences
  • {title}
  • {title}
  • {title}