Skip to the content

Open IA

AI News

  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Search

Category

Safety & Alignment

  • Operator System Card

    12 Mar
  • Deliberative alignment: reasoning enables safer language models

    12 Mar
  • Sora System Card

    12 Mar
  • An update on our safety & security practices

    12 Mar
  • An update on our safety & security practices

    12 Mar
  • Disrupting a covert Iranian influence operation

    12 Mar
  • GPT-4o System Card

    12 Mar
  • Finding GPT-4’s mistakes with GPT-4

    12 Mar
  • Expanding on how Voice Engine works and our safety research

    12 Mar
  • OpenAI safety practices

    12 Mar
  • OpenAI’s commitment to child safety: adopting safety by design principles

    12 Mar
  • Democratic inputs to AI grant program: lessons learned and implementation plans

    12 Mar
  • How OpenAI is approaching 2024 worldwide elections

    12 Mar
  • Practices for Governing Agentic AI Systems

    12 Mar
  • Superalignment Fast Grants

    12 Mar
  • Weak-to-strong generalization

    12 Mar
  • Frontier risk and preparedness

    12 Mar
  • DALL·E 3 system card

    12 Mar
  • GPT-4V(ision) system card

    12 Mar
  • OpenAI Red Teaming Network

    12 Mar
  • Using GPT-4 for content moderation

    12 Mar
  • Confidence-Building Measures for Artificial Intelligence: Workshop proceedings

    12 Mar
  • Frontier Model Forum

    12 Mar
  • Frontier Model Forum

    12 Mar
  • Moving AI governance forward

    12 Mar
  • Frontier AI regulation: Managing emerging risks to public safety

    12 Mar
  • Insights from global conversations

    12 Mar
  • Governance of superintelligence

    12 Mar
  • Language models can explain neurons in language models

    12 Mar
  • Our approach to AI safety

    12 Mar
  • Planning for AGI and beyond

    12 Mar
  • How should AI systems behave, and who should decide?

    12 Mar
  • Forecasting potential misuses of language models for disinformation campaigns and how to reduce risk

    12 Mar
  • Forecasting potential misuses of language models for disinformation campaigns and how to reduce risk

    12 Mar
  • Our approach to alignment research

    12 Mar
  • A hazard analysis framework for code synthesis large language models

    12 Mar
  • A hazard analysis framework for code synthesis large language models

    12 Mar
  • AI-written critiques help humans notice flaws

    12 Mar
  • Best practices for deploying language models

    12 Mar
  • Measuring Goodhart’s law

    12 Mar
  • Economic impacts research at OpenAI

    12 Mar
  • Lessons learned on language model safety and misuse

    12 Mar
  • Aligning language models to follow instructions

    12 Mar
  • Summarizing books with human feedback

    12 Mar
  • Improving language model behavior by training on a curated dataset

    12 Mar
  • Learning to summarize with human feedback

    12 Mar
  • Safety Gym

    12 Mar
  • Benchmarking safe exploration in deep reinforcement learning

    12 Mar
  • Fine-tuning GPT-2 from human preferences

    12 Mar
  • Testing robustness against unforeseen adversaries

    12 Mar
  • Why responsible AI development needs cooperation on safety

    12 Mar
  • Transfer of adversarial robustness between perturbation types

    12 Mar
  • Introducing Activation Atlases

    12 Mar
  • AI safety needs social scientists

    12 Mar
  • Learning complex goals with iterated amplification

    12 Mar
  • Improving language understanding with unsupervised learning

    12 Mar
  • AI safety via debate

    12 Mar
  • Preparing for malicious uses of AI

    12 Mar
  • Learning from human preferences

    12 Mar
  • Attacking machine learning with adversarial examples

    12 Mar
  • Adversarial attacks on neural network policies

    12 Mar
  • Faulty reward functions in the wild

    12 Mar
  • Semi-supervised knowledge transfer for deep learning from private training data

    12 Mar
  • Concrete AI safety problems

    12 Mar
  • Adversarial training methods for semi-supervised text classification

    12 Mar

© 2026 Open IA

Design Jean-Louis Maso

Gérer le consentement
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel Toujours activé
L’accès ou le stockage technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
L’accès ou le stockage technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
  • Gérer les options
  • Gérer les services
  • Gérer {vendor_count} fournisseurs
  • En savoir plus sur ces finalités
Voir les préférences
  • {title}
  • {title}
  • {title}