Skip to the content

Open IA

AI News

  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Search

Category

Safety & Alignment

  • Operator System Card

    7 Déc
  • Deliberative alignment: reasoning enables safer language models

    7 Déc
  • Sora System Card

    7 Déc
  • An update on our safety & security practices

    7 Déc
  • An update on our safety & security practices

    7 Déc
  • Disrupting a covert Iranian influence operation

    7 Déc
  • GPT-4o System Card

    7 Déc
  • Finding GPT-4’s mistakes with GPT-4

    7 Déc
  • Expanding on how Voice Engine works and our safety research

    7 Déc
  • OpenAI safety practices

    7 Déc
  • OpenAI’s commitment to child safety: adopting safety by design principles

    7 Déc
  • Democratic inputs to AI grant program: lessons learned and implementation plans

    7 Déc
  • How OpenAI is approaching 2024 worldwide elections

    7 Déc
  • Practices for Governing Agentic AI Systems

    7 Déc
  • Superalignment Fast Grants

    7 Déc
  • Weak-to-strong generalization

    7 Déc
  • Frontier risk and preparedness

    7 Déc
  • DALL·E 3 system card

    7 Déc
  • GPT-4V(ision) system card

    7 Déc
  • OpenAI Red Teaming Network

    7 Déc
  • Using GPT-4 for content moderation

    7 Déc
  • Confidence-Building Measures for Artificial Intelligence: Workshop proceedings

    7 Déc
  • Frontier Model Forum

    7 Déc
  • Frontier Model Forum

    7 Déc
  • Moving AI governance forward

    7 Déc
  • Frontier AI regulation: Managing emerging risks to public safety

    7 Déc
  • Insights from global conversations

    7 Déc
  • Governance of superintelligence

    7 Déc
  • Language models can explain neurons in language models

    7 Déc
  • Our approach to AI safety

    7 Déc
  • Planning for AGI and beyond

    7 Déc
  • How should AI systems behave, and who should decide?

    7 Déc
  • Forecasting potential misuses of language models for disinformation campaigns and how to reduce risk

    7 Déc
  • Forecasting potential misuses of language models for disinformation campaigns and how to reduce risk

    7 Déc
  • Our approach to alignment research

    7 Déc
  • A hazard analysis framework for code synthesis large language models

    7 Déc
  • A hazard analysis framework for code synthesis large language models

    7 Déc
  • AI-written critiques help humans notice flaws

    7 Déc
  • Best practices for deploying language models

    7 Déc
  • Measuring Goodhart’s law

    7 Déc
  • Economic impacts research at OpenAI

    7 Déc
  • Lessons learned on language model safety and misuse

    7 Déc
  • Aligning language models to follow instructions

    7 Déc
  • Summarizing books with human feedback

    7 Déc
  • Improving language model behavior by training on a curated dataset

    7 Déc
  • Learning to summarize with human feedback

    7 Déc
  • Safety Gym

    7 Déc
  • Benchmarking safe exploration in deep reinforcement learning

    7 Déc
  • Fine-tuning GPT-2 from human preferences

    7 Déc
  • Testing robustness against unforeseen adversaries

    7 Déc
  • Why responsible AI development needs cooperation on safety

    7 Déc
  • Transfer of adversarial robustness between perturbation types

    7 Déc
  • Introducing Activation Atlases

    7 Déc
  • AI safety needs social scientists

    7 Déc
  • Learning complex goals with iterated amplification

    7 Déc
  • Improving language understanding with unsupervised learning

    7 Déc
  • AI safety via debate

    7 Déc
  • Preparing for malicious uses of AI

    7 Déc
  • Learning from human preferences

    7 Déc
  • Attacking machine learning with adversarial examples

    7 Déc
  • Adversarial attacks on neural network policies

    7 Déc
  • Faulty reward functions in the wild

    7 Déc
  • Semi-supervised knowledge transfer for deep learning from private training data

    7 Déc
  • Concrete AI safety problems

    7 Déc
  • Adversarial training methods for semi-supervised text classification

    7 Déc

© 2025 Open IA

Design Jean-Louis Maso

Gérer le consentement
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel Toujours activé
L’accès ou le stockage technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
L’accès ou le stockage technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
  • Gérer les options
  • Gérer les services
  • Gérer {vendor_count} fournisseurs
  • En savoir plus sur ces finalités
Voir les préférences
  • {title}
  • {title}
  • {title}