Skip to the content

Open IA

AI News

  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Search
  • AI and efficiency

    27 Jan
  • Jukebox

    27 Jan
  • Improving verifiability in AI development

    27 Jan
  • Improving verifiability in AI development

    27 Jan
  • OpenAI Microscope

    27 Jan
  • OpenAI standardizes on PyTorch

    27 Jan
  • Scaling laws for neural language models

    27 Jan
  • Scaling laws for neural language models

    27 Jan
  • Dota 2 with large scale deep reinforcement learning

    27 Jan
  • Deep double descent

    27 Jan
  • Procgen Benchmark

    27 Jan
  • Benchmarking safe exploration in deep reinforcement learning

    27 Jan
  • Safety Gym

    27 Jan
  • GPT-2: 1.5B release

    27 Jan
  • What our quantum computing milestone means

    27 Jan
  • Solving Rubik’s Cube with a robot hand

    27 Jan
  • OpenAI Scholars 2020: Applications open

    27 Jan
  • Fine-tuning GPT-2 from human preferences

    27 Jan
  • Emergent tool use from multi-agent interaction

    27 Jan
  • Testing robustness against unforeseen adversaries

    27 Jan
  • GPT-2: 6-month follow-up

    27 Jan
  • Learning Day

    27 Jan
  • Microsoft invests in and partners with OpenAI to support us building beneficial AGI

    27 Jan
  • Why responsible AI development needs cooperation on safety

    27 Jan
  • OpenAI Robotics Symposium 2019

    27 Jan
  • OpenAI Scholars 2019: Final projects

    27 Jan
  • OpenAI Fellows Fall 2018: Final projects

    27 Jan
  • Transfer of adversarial robustness between perturbation types

    27 Jan
  • MuseNet

    27 Jan
  • Generative modeling with sparse transformers

    27 Jan
  • OpenAI Five defeats Dota 2 world champions

    27 Jan
  • OpenAI Five Finals

    27 Jan
  • Implicit generation and generalization methods for energy-based models

    27 Jan
  • OpenAI Scholars 2019: Meet our Scholars

    27 Jan
  • OpenAI LP

    27 Jan
  • Introducing Activation Atlases

    27 Jan
  • Neural MMO: A massively multiagent game environment

    27 Jan
  • Spinning Up in Deep RL: Workshop review

    27 Jan
  • AI safety needs social scientists

    27 Jan
  • Better language models and their implications

    27 Jan
  • Better language models and their implications

    27 Jan
  • Computational limitations in robust classification and win-win results

    27 Jan
  • OpenAI Fellows Summer 2018: Final projects

    27 Jan
  • How AI training scales

    27 Jan
  • Quantifying generalization in reinforcement learning

    27 Jan
  • Spinning Up in Deep RL

    27 Jan
  • Learning concepts with energy functions

    27 Jan
  • Plan online, learn offline: Efficient learning and exploration via model-based control

    27 Jan
  • Reinforcement learning with prediction-based rewards

    27 Jan
  • Learning complex goals with iterated amplification

    27 Jan
  • OpenAI Scholars 2019: Applications open

    27 Jan
  • OpenAI Fellows Winter 2019 & Interns Summer 2019

    27 Jan
  • FFJORD: Free-form continuous dynamics for scalable reversible generative models

    27 Jan
  • FFJORD: Free-form continuous dynamics for scalable reversible generative models

    27 Jan
  • OpenAI Scholars 2018: Final projects

    27 Jan
  • OpenAI Scholars 2018: Final projects

    27 Jan
  • The International 2018: Results

    27 Jan
  • Large-scale study of curiosity-driven learning

    27 Jan
  • OpenAI Five Benchmark: Results

    27 Jan
  • Learning dexterity

    27 Jan
  • Variational option discovery algorithms

    27 Jan
  • OpenAI Scholars 2018: Meet our Scholars

    27 Jan
  • OpenAI Five Benchmark

    27 Jan
  • Glow: Better reversible generative models

    27 Jan
  • Learning Montezuma’s Revenge from a single demonstration

    27 Jan
  • OpenAI Five

    27 Jan
  • Retro Contest: Results

    27 Jan
  • Learning policy representations in multiagent systems

    27 Jan
  • Improving language understanding with unsupervised learning

    27 Jan
  • GamePad: A learning environment for theorem proving

    27 Jan
  • OpenAI Fellows Fall 2018

    27 Jan
  • Gym Retro

    27 Jan
  • AI and compute

    27 Jan
  • AI safety via debate

    27 Jan
  • Evolved Policy Gradients

    27 Jan
  • Gotta Learn Fast: A new benchmark for generalization in RL

    27 Jan
  • How to make AI that’s good for people

    27 Jan
  • Retro Contest

    27 Jan
  • Variance reduction for policy gradient with action-dependent factorized baselines

    27 Jan
  • Report from the OpenAI hackathon

    27 Jan
  • Improving GANs using optimal transport

    27 Jan
  • On first-order meta-learning algorithms

    27 Jan
  • Reptile: A scalable meta-learning algorithm

    27 Jan
  • OpenAI Scholars

    27 Jan
  • Some considerations on learning to explore via meta-reinforcement learning

    27 Jan
  • Ingredients for robotics research

    27 Jan
  • Multi-Goal Reinforcement Learning: Challenging robotics environments and request for research

    27 Jan
  • OpenAI hackathon

    27 Jan
  • Preparing for malicious uses of AI

    27 Jan
  • OpenAI supporters

    27 Jan
  • Interpretable machine learning through teaching

    27 Jan
  • Interpretable machine learning through teaching

    27 Jan
  • Discovering types for entity disambiguation

    27 Jan
  • Requests for Research 2.0

    27 Jan
  • Scaling Kubernetes to 2,500 nodes

    27 Jan
  • Block-sparse GPU kernels

    27 Jan
  • Learning sparse neural networks through L₀ regularization

    27 Jan
  • Interpretable and pedagogical examples

    27 Jan
  • Learning a hierarchy

    27 Jan
  • Generalizing from simulation

    27 Jan

Newer

Older

© 2026 Open IA

Design Jean-Louis Maso

Gérer le consentement
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel Toujours activé
L’accès ou le stockage technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
L’accès ou le stockage technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
  • Gérer les options
  • Gérer les services
  • Gérer {vendor_count} fournisseurs
  • En savoir plus sur ces finalités
Voir les préférences
  • {title}
  • {title}
  • {title}