NEWS #Digitale : envie de recevoir nos meilleurs articles ?  Inscription → 

OpenAI DevDay 2024 : ces 4 nouveautés vont plaire aux développeurs

Lors du DevDay 2024, OpenAI a dévoilé une série d’annonces à destination des développeurs et entreprises qui utilisent ses API pour créer des logiciels tiers. Voici un récapitulatif des 4 principales nouveautés annoncées.
OpenAI DevDay 2024
OpenAI DevDay 2024

1- Une nouvelle API Realtime pour créer des conversations vocales instantanées et naturelles

L’une des annonces phares est l’introduction de l’API Realtime, une solution permettant aux développeurs de créer des expériences vocales interactives avec une latence minimale.

Cette nouvelle API s’appuie sur le modèle GPT-4o et permet d’offrir des interactions vocales quasi instantanées, similaires au mode vocal avancé de ChatGPT.

Fonctionnalités principales :

  • Prise en charge de six voix prédéfinies : pour offrir des expériences vocales variées et naturelles (les voix seront différentes de celles disponibles dans ChatGPT Voice).
  • Gestion des interruptions en cours de conversation :ce qui permet des interactions plus fluides, proches des échanges humains.
  • Fonction calling : permet aux assistants vocaux d’exécuter des actions en réponse aux demandes des utilisateurs (comme passer une commande ou récupérer des informations contextuelles).
  • Intégration téléphonique via Twilio : l’API permet de passer des appels téléphoniques, créant ainsi des applications qui peuvent interagir vocalement avec des services tiers.

Cette API est déjà disponible en version bêta pour les développeurs qui disposent d’un accès payant. Celle-ci sera à la fois capable de traiter des entrées et sorties vocales en temps réel, une fonctionnalité qui devrait stimuler la créativité de nombreux secteurs comme le service client, l’apprentissage des langues ou encore la santé.

2- Le fine-tuning visuel par API pour personnaliser et améliorer les performances visuelles de GPT-4o

OpenAI a également annoncé une avancée intéressante avec le fine-tuning visuel par API.

Cette nouvelle fonctionnalité va permettre aux développeurs de personnaliser les modèles GPT-4o avec des images, en plus du texte, afin d’améliorer la compréhension visuelle du modèle. Cette nouveauté va ouvrir la porte à de nouvelles applications dans des domaines variés.

Quelques exemples d’usages :

  • Recherche visuelle améliorée : optimiser les fonctionnalités de recherche à partir d’images pour des applications de e-commerce ou d’archivage visuel.
  • Détection d’objets : amélioration de la détection d’objets pour des systèmes autonomes, comme les véhicules intelligents ou les villes connectées.
  • Analyse d’images médicales : fournir des diagnostics plus précis en utilisant des modèles IA capables de comprendre des images complexes dans le domaine médical.

3- L’arrivée du prompt caching pour réduire les coûts des requêtes entrantes répétitives

OpenAI a également présenté une fonctionnalité appelée Prompt Caching.

Elle va concrètement permettre aux développeurs de réduire les coûts et d’améliorer la latence pour les applications nécessitant des requêtes répétitives ou des contextes longs (par exemple, dans des conversations chatbot complexes ou lors de modifications répétées d’une base de code).

Avantages :

  • Réduction des coûts : jusqu’à 50 % d’économie sur les appels API en réutilisant les prompts précédemment utilisés.
  • Amélioration de la performance : temps de réponse plus rapide en mettant en cache les contextes de conversation ou de requête les plus fréquents.

Cette fonctionnalité a été automatiquement déployée, depuis le 01 octobre 2024, sur les dernières version des modèles d’OpenAI (GPT-4o, GPT-4o mini, o1-preview et o1-mini).

4- Model Distillation : simplifier l’entraînement de modèles plus spécialisés, moins chers et plus efficaces

L’API de Model Distillation est une autre annonce clé.

Cette nouvelle fonctionnalité va permettre aux développeurs de créer des modèles plus spécialisés, plus petits et plus économiques à partir des données de sortie des modèles les plus avancés d’OpenAI comme GPT-4o ou o1-preview.

Ce processus, appelé distillation de modèles, consiste à entraîner un modèle plus petit et économique comme GPT-4o mini à partir des sorties d’un modèle plus grand comme GPT-4o ou o1-preview.

Cette technique est particulièrement utile pour des cas d’utilisation nécessitant des modèles légers, tels que les applications mobiles ou les systèmes embarqués, tout en maintenant des performances élevées.

Avant de se quitter…

Si cet article sur les nouveautés annoncées lors de l’évènement OpenAI Devday 2024 vous a plu, n’hésitez pas à le partager sur les réseaux sociaux, à vous abonner à notre newsletter digitale et/ou à nous suivre sur Google Actualités pour recevoir nos prochains articles.

Vous pouvez également suivre nos meilleurs articles via notre flux RSS : https://www.leptidigital.fr/tag/newsletter-digitale/feed/ (il vous suffit de l’insérer dans votre lecteur de flux RSS préféré (ex : Feedly)).

Nous sommes aussi actifs sur LinkedIn, X, Facebook, Threads et YouTube. On s’y retrouve ?

Un avis ? post

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *