Skip to the content

Open IA

AI News

  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Search

Category

Safety & Alignment

  • Operator System Card

    21 Déc
  • Deliberative alignment: reasoning enables safer language models

    21 Déc
  • Sora System Card

    21 Déc
  • An update on our safety & security practices

    21 Déc
  • An update on our safety & security practices

    21 Déc
  • Disrupting a covert Iranian influence operation

    21 Déc
  • GPT-4o System Card

    21 Déc
  • Finding GPT-4’s mistakes with GPT-4

    21 Déc
  • Expanding on how Voice Engine works and our safety research

    21 Déc
  • OpenAI safety practices

    21 Déc
  • OpenAI’s commitment to child safety: adopting safety by design principles

    21 Déc
  • Democratic inputs to AI grant program: lessons learned and implementation plans

    21 Déc
  • How OpenAI is approaching 2024 worldwide elections

    21 Déc
  • Practices for Governing Agentic AI Systems

    21 Déc
  • Superalignment Fast Grants

    21 Déc
  • Weak-to-strong generalization

    21 Déc
  • Frontier risk and preparedness

    21 Déc
  • DALL·E 3 system card

    21 Déc
  • GPT-4V(ision) system card

    21 Déc
  • OpenAI Red Teaming Network

    21 Déc
  • Using GPT-4 for content moderation

    21 Déc
  • Confidence-Building Measures for Artificial Intelligence: Workshop proceedings

    21 Déc
  • Frontier Model Forum

    21 Déc
  • Frontier Model Forum

    21 Déc
  • Moving AI governance forward

    21 Déc
  • Frontier AI regulation: Managing emerging risks to public safety

    21 Déc
  • Insights from global conversations

    21 Déc
  • Governance of superintelligence

    21 Déc
  • Language models can explain neurons in language models

    21 Déc
  • Our approach to AI safety

    21 Déc
  • Planning for AGI and beyond

    21 Déc
  • How should AI systems behave, and who should decide?

    21 Déc
  • Forecasting potential misuses of language models for disinformation campaigns and how to reduce risk

    21 Déc
  • Forecasting potential misuses of language models for disinformation campaigns and how to reduce risk

    21 Déc
  • Our approach to alignment research

    21 Déc
  • A hazard analysis framework for code synthesis large language models

    21 Déc
  • A hazard analysis framework for code synthesis large language models

    21 Déc
  • AI-written critiques help humans notice flaws

    21 Déc
  • Best practices for deploying language models

    21 Déc
  • Measuring Goodhart’s law

    21 Déc
  • Economic impacts research at OpenAI

    21 Déc
  • Lessons learned on language model safety and misuse

    21 Déc
  • Aligning language models to follow instructions

    21 Déc
  • Summarizing books with human feedback

    21 Déc
  • Improving language model behavior by training on a curated dataset

    21 Déc
  • Learning to summarize with human feedback

    21 Déc
  • Safety Gym

    21 Déc
  • Benchmarking safe exploration in deep reinforcement learning

    21 Déc
  • Fine-tuning GPT-2 from human preferences

    21 Déc
  • Testing robustness against unforeseen adversaries

    21 Déc
  • Why responsible AI development needs cooperation on safety

    21 Déc
  • Transfer of adversarial robustness between perturbation types

    21 Déc
  • Introducing Activation Atlases

    21 Déc
  • AI safety needs social scientists

    21 Déc
  • Learning complex goals with iterated amplification

    21 Déc
  • Improving language understanding with unsupervised learning

    21 Déc
  • AI safety via debate

    21 Déc
  • Preparing for malicious uses of AI

    21 Déc
  • Learning from human preferences

    21 Déc
  • Attacking machine learning with adversarial examples

    21 Déc
  • Adversarial attacks on neural network policies

    21 Déc
  • Faulty reward functions in the wild

    21 Déc
  • Semi-supervised knowledge transfer for deep learning from private training data

    21 Déc
  • Concrete AI safety problems

    21 Déc
  • Adversarial training methods for semi-supervised text classification

    21 Déc

© 2025 Open IA

Design Jean-Louis Maso

Gérer le consentement
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel Toujours activé
L’accès ou le stockage technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
L’accès ou le stockage technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
  • Gérer les options
  • Gérer les services
  • Gérer {vendor_count} fournisseurs
  • En savoir plus sur ces finalités
Voir les préférences
  • {title}
  • {title}
  • {title}