Skip to the content

Open IA

AI News

  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Microsoft IA
  • Google IA
  • NVIDIA IA
  • Openai IA
  • MIT IA
  • TLDR.TECH
  • ScienceDaily IA
  • SiècleDigital IA
  • Developpez.com
  • BonPrompt.com
  • Toute l’IA
  • A propos
  • Search

Category

Openai IA

Toute l’actualité IA d’Openai

  • Forecasting potential misuses of language models for disinformation campaigns and how to reduce risk

    22 Jan
  • Forecasting potential misuses of language models for disinformation campaigns and how to reduce risk

    22 Jan
  • Delivering nuanced insights from customer feedback

    22 Jan
  • Fine-tuning GPT-3 to scale video creation

    22 Jan
  • Creating next-gen characters

    22 Jan
  • The power of continuous learning

    22 Jan
  • Point-E: A system for generating 3D point clouds from complex prompts

    22 Jan
  • New and improved embedding model

    22 Jan
  • Discovering the minutiae of backend systems

    22 Jan
  • Introducing ChatGPT

    22 Jan
  • DALL·E API now available in public beta

    22 Jan
  • Scaling laws for reward model overoptimization

    22 Jan
  • DALL·E now available without waitlist

    22 Jan
  • Introducing Whisper

    22 Jan
  • DALL·E: Introducing outpainting

    22 Jan
  • Our approach to alignment research

    22 Jan
  • New and improved content moderation tooling

    22 Jan
  • Efficient training of language models to fill in the middle

    22 Jan
  • A hazard analysis framework for code synthesis large language models

    22 Jan
  • A hazard analysis framework for code synthesis large language models

    22 Jan
  • DALL·E now available in beta

    22 Jan
  • Reducing bias and improving safety in DALL·E 2

    22 Jan
  • DALL·E 2: Extending creativity

    22 Jan
  • DALL·E 2: Extending creativity

    22 Jan
  • DALL·E 2 pre-training mitigations

    22 Jan
  • Learning to play Minecraft with Video PreTraining

    22 Jan
  • Evolution through large models

    22 Jan
  • AI-written critiques help humans notice flaws

    22 Jan
  • Techniques for training large neural networks

    22 Jan
  • Best practices for deploying language models

    22 Jan
  • Teaching models to express their uncertainty in words

    22 Jan
  • Powering next generation applications with OpenAI Codex

    22 Jan
  • DALL·E 2 research preview update

    22 Jan
  • OpenAI leadership team update

    22 Jan
  • Measuring Goodhart’s law

    22 Jan
  • Hierarchical text-conditional image generation with CLIP latents

    22 Jan
  • New GPT-3 capabilities: Edit & insert

    22 Jan
  • Economic impacts research at OpenAI

    22 Jan
  • Lessons learned on language model safety and misuse

    22 Jan
  • A research agenda for assessing the economic impacts of code generation models

    22 Jan
  • Solving (some) formal math olympiad problems

    22 Jan
  • Aligning language models to follow instructions

    22 Jan
  • Introducing text and code embeddings

    22 Jan
  • Text and code embeddings by contrastive pre-training

    22 Jan
  • WebGPT: Improving the factual accuracy of language models through web browsing

    22 Jan
  • Customizing GPT-3 for your application

    22 Jan
  • OpenAI Residency

    22 Jan
  • OpenAI Residency

    22 Jan
  • OpenAI’s API now available with no waitlist

    22 Jan
  • Solving math word problems

    22 Jan
  • Summarizing books with human feedback

    22 Jan
  • Helen Toner joins OpenAI’s board of directors

    22 Jan
  • TruthfulQA: Measuring how models mimic human falsehoods

    22 Jan
  • OpenAI Codex

    22 Jan
  • Introducing Triton: Open-source GPU programming for neural networks

    22 Jan
  • Evaluating large language models trained on code

    22 Jan
  • Improving language model behavior by training on a curated dataset

    22 Jan
  • OpenAI Scholars 2021: Final projects

    22 Jan
  • Will Hurd joins OpenAI’s board of directors

    22 Jan
  • GPT-3 powers the next generation of apps

    22 Jan
  • Multimodal neurons in artificial neural networks

    22 Jan
  • Understanding the capabilities, limitations, and societal impact of large language models

    22 Jan
  • Understanding the capabilities, limitations, and societal impact of large language models

    22 Jan
  • Scaling Kubernetes to 7,500 nodes

    22 Jan
  • CLIP: Connecting text and images

    22 Jan
  • DALL·E: Creating images from text

    22 Jan
  • DALL·E: Creating images from text

    22 Jan
  • Organizational update from OpenAI

    22 Jan
  • OpenAI licenses GPT-3 technology to Microsoft

    22 Jan
  • Generative language modeling for automated theorem proving

    22 Jan
  • Learning to summarize with human feedback

    22 Jan
  • OpenAI Scholars 2020: Final projects

    22 Jan
  • Procgen and MineRL Competitions

    22 Jan
  • Image GPT

    22 Jan
  • OpenAI API

    22 Jan
  • Language models are few-shot learners

    22 Jan
  • AI and efficiency

    22 Jan
  • Jukebox

    22 Jan
  • Improving verifiability in AI development

    22 Jan
  • Improving verifiability in AI development

    22 Jan
  • OpenAI Microscope

    22 Jan
  • OpenAI standardizes on PyTorch

    22 Jan
  • Scaling laws for neural language models

    22 Jan
  • Scaling laws for neural language models

    22 Jan
  • Dota 2 with large scale deep reinforcement learning

    22 Jan
  • Deep double descent

    22 Jan
  • Procgen Benchmark

    22 Jan
  • Safety Gym

    22 Jan
  • Benchmarking safe exploration in deep reinforcement learning

    22 Jan
  • GPT-2: 1.5B release

    22 Jan
  • Solving Rubik’s Cube with a robot hand

    22 Jan
  • OpenAI Scholars 2020: Applications open

    22 Jan
  • Fine-tuning GPT-2 from human preferences

    22 Jan
  • Emergent tool use from multi-agent interaction

    22 Jan
  • Testing robustness against unforeseen adversaries

    22 Jan
  • GPT-2: 6-month follow-up

    22 Jan
  • Learning Day

    22 Jan
  • Microsoft invests in and partners with OpenAI to support us building beneficial AGI

    22 Jan
  • Why responsible AI development needs cooperation on safety

    22 Jan
  • OpenAI Robotics Symposium 2019

    22 Jan

Newer

Older

© 2026 Open IA

Design Jean-Louis Maso

Gérer le consentement
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel Toujours activé
L’accès ou le stockage technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
L’accès ou le stockage technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
  • Gérer les options
  • Gérer les services
  • Gérer {vendor_count} fournisseurs
  • En savoir plus sur ces finalités
Voir les préférences
  • {title}
  • {title}
  • {title}