IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

OpenAI a lancé une version plus puissante de son modèle d'IA qui «raisonne» o1 : o1-pro


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 258
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 258
    Par défaut OpenAI a lancé une version plus puissante de son modèle d'IA qui «raisonne» o1 : o1-pro
    OpenAI annonce l'événement spécial « Shipmas » de 12 jours au cours duquel il pourrait lancer son modèle d'IA de génération de vidéos controversé Sora et un nouveau modèle centré sur le raisonnement

    OpenAI lance un événement spécial « Shipmas » à partir de ce 5 décembre 2024 et qui durera 12 jours consécutifs. Le PDG Sam Altman a annoncé que la société dévoilera durant cette période de nouvelles fonctionnalités et de nouveaux produits d'IA. Il n'a pas précisé les fonctionnalités ou produits exacts qu'OpenAI prévoit de dévoiler, mais des rapports suggèrent que les produits pourraient inclure une version publique du modèle de génération de vidéos Sora de la société et un nouveau modèle d'IA axé sur le raisonnement similaire à o1-preview. OpenAI pourrait également lancer DALL-E 4, basé sur les capacités multimodales de GPT-4o.

    OpenAI a passé une année 2024 tumultueuse. La société a dû faire face à plusieurs actions en justice pour violation du droit d'auteur, dont une action très médiatisée intentée par le New York Times, et à une concurrence plus accrue de la part de rivaux Google et Anthropic. Cependant, OpenAI entend souhaiter à ses utilisateurs de bonnes fêtes de fin d'année d'une manière spéciale. La société lance une période festive de 12 jours à compter de ce 5 décembre.

    Le lancement de Sora suscite de plus en plus de l'impatience

    Sam Altman, PDG d'OpenAI, a déclaré que cette période festive sera marquée par le lancement de nouvelles fonctionnalités, de nouveaux produits et des démonstrations pour les produits de la marque. Il n'a ajouté aucune précision, ouvrant la voie aux spéculations sur les produits. Dans la communauté, l'un des lancements les plus attendus lors de cet événement est celui de Sora, le modèle d'OpenAI capable de générer une vidéo à partir d'une invite textuelle.


    Juste avant le lancement, quelques employés d'OpenAI ont créé le suspense sur les médias sociaux. « Qu'y a-t-il sur votre liste de Noël ? », a posté un membre de l'équipe technique d'OpenAI. « Je suis rentré juste à temps pour installer le sapin de Noël », a écrit un autre membre de l'équipe. Un autre un membre du personnel a posté : « OpenAI est incroyablement de retour ». Ce à quoi Bill Peebles, le responsable de Sora, a répondu avec un seul « Correct ».

    Actuellement en phase de recherche fermée, Sora a suscité beaucoup d'intérêt, mais également de controverses au sein de la communauté technologique. Il y a quelques semaines, des artistes ont fait fuiter le modèle pour protester contre son utilisation par OpenAI pour ce qu'ils affirment être « de la R&D et des relations publiques non rémunérées ». Cet incident aurait retardé le lancement de Sora, qui devrait initialement être lancé beaucoup plus tôt.

    Des centaines d'artistes ont testé Sora en alpha tout au long de l'année 2024 grâce à un aperçu de recherche sur invitation seulement qui leur permet de générer des vidéos avec Sora. L'ancien directeur technique d'OpenAI, Mira Murati, a déclaré en mars que Sora serait disponible d'ici la fin de l'année.

    D'autres nouvelles fonctionnalités et mises à jour potentielles

    L'événement « Shipmas » d'OpenAI permettra non seulement de présenter Sora, mais aussi d'introduire un nouveau modèle axé sur le raisonnement. Les deux pourraient faire progresser de manière significative les capacités de l'IA. En particulier, le modèle centré sur le raisonnement est censé repousser les limites de l'IA, en lui permettant de mieux « résoudre des problèmes complexes avec nuance et sophistication. OpenAI pourrait également annoncer :

    • la version complète du modèle o1 centré sur le raisonnement ;
    • l'amélioration du mode vocal avancé de ChatGPT, avec éventuellement une voix sur le thème des fêtes ;
    • des mises à jour de ChatGPT Canvas ;
    • le déblocage potentiel des capacités de génération d'images de GPT-4o ;
    • des aperçus possibles de futurs modèles comme o2 ou GPT-5o.


    La concurrence dans le paysage de l'IA générative s'intensifie

    L'événement d'OpenAI intervient à un moment où la concurrence est intense dans le domaine de l'IA. Aujourd'hui, le lancement de Sora semble imminent. S'il est lancé, il marquera une étape importante dans la génération de vidéos à l'aide de l'IA. En attendant, Google a devancé OpenAI en présentant la dernière version de son propre modèle de génération de vidéos « Veo ». Veo a été dévoilé à l'origine en mai, trois mois après l'annonce de Sora par OpenAI.


    Le modèle de génération de vidéos de Google est disponible pour les entreprises qui souhaitent l'intégrer dans leur processus de création de contenu. OpenAI vise les mêmes cas d'utilisation et promet de révolutionner la création de vidéos. Veo est en avant-première privée via la plateforme Vertex AI de Google.

    Amazon travaillerait également sur un service similaire dont le nom de code est Olympus. Selon les informations disponibles, Olympus est un modèle d'IA majeur qui sera capable de donner un sens au contenu des images et des vidéos, permettant la recherche de certaines scènes.

    Impacts potentiels de l'événement d'OpenAI sur l'industrie

    L'événement spécial « Shipmas » d'OpenAI devrait avoir un impact significatif sur l'industrie de l'IA. Il démontre l'engagement d'OpenAI en faveur de l'innovation rapide et sa capacité à susciter l'enthousiasme du public autour des avancées de l'IA. Le lancement de ChatGPT par OpenAI à la fin du mois de novembre 2022 a lancé une véritable course à l'IA générative, ce qui a provoqué un boom des investissements dans le secteur et la recherche en matière d'IA.

    Controverses et considérations éthiques liées aux produits d'OpenAI

    La sortie potentielle de Sora a déjà suscité des débats sur l'éthique de l'IA et l'utilisation des données d'entraînement. Certains testeurs ont divulgué Sora en signe de protestation, ce qui soulève des questions quant à l'impact de l'IA sur les industries créatives. En particulier, il a été allégué qu'OpenAI avait utilisé des vidéos publiques de YouTube pour former Sora, ce qui a suscité des débats au sein de la communauté de l'IA sur la transparence et l'équité.

    OpenAI n'a pas encore répondu à ces préoccupations, ce qui laisse la question en suspens. Des milliers d'emplois ont déjà été remplacés par l'IA et de nouvelles études indiquent que le nombre d'emplois menacé par la technologie augmente rapidement depuis l'essor de l'IA générative. Avec le passage d'OpenAI à une organisation à but lucratif, les préoccupations liées à la vision de la société en matière d'IA et les risques pour les emplois augmentent également.

    Elon Musk a déposé récemment une injonction contre la transition d'OpenAI vers un modèle à but lucratif et ce qu'il considère comme les pratiques « déloyales » de l'entreprise. Les principales cibles de l'injonction sont Sam Altman, Reid Hoffman, Microsoft et ses investissements de plusieurs milliards de dollars dans OpenAI. Elon Musk accuse également OpenAI d'utiliser des données sensibles et demande le respect de sa mission initiale à but non lucratif.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de l'événement prévu par OpenAI pour cette fin d'année ?
    Quels impacts les annonces d'OpenAI pourraient avoir dans le paysage de l'IA générative ?
    Selon vous, quels seraient les impacts potentiels de la sortie de Sora sur les industries créatives ?
    OpenAI envisage de se restructurer en une organisation à but lucratif ? Qu'en pensez-vous ?

    Voir aussi

    OpenAI lève plus de 6,5 milliards de dollars et atteint une valorisation de 157 milliards de dollars. L'entreprise demande aux investisseurs de ne pas soutenir la concurrence comme xAI d'Elon Musk

    Elon Musk dépose une injonction pour stopper la transition d'OpenAI vers un modèle à but lucratif, accusant l'organisation et Microsoft de s'engager dans des pratiques anti-concurrentielles et non équitables

    Amazon développe un modèle d'IA majeur, suite au dernier investissement dans Anthropic, "Olympus" sera capable de donner un sens au contenu des images et des vidéos, permettant la recherche de certaines scènes

  2. #2
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 181
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 181
    Par défaut OpenAI lance un ChatGPT "plus intelligent et plus rapide" accessible via un abonnement de 200 dollars par mois
    OpenAI lance un ChatGPT "plus intelligent et plus rapide" accessible via un abonnement de 200 dollars par mois qui ouvre aussi à un "mode encore plus intelligent"
    Que les développeurs pourront passer au test

    OpenAI lance la version complète de son modèle o1 (remplaçant o1-preview), qui avait été initialement mise en avant en septembre sous forme d'aperçu limité. La société introduit en sus ChatGPT Pro, un nouvel abonnement mensuel de 200 $ qui comprend un accès illimité à OpenAI o1, GPT-4o et au mode vocal avancé. Il comprend de plus une version de o1, exclusive aux utilisateurs Pro, qui utilise plus de calcul pour fournir la meilleure réponse possible aux problèmes les plus difficiles. Ces offres ciblent entre autres les développeurs informatique qui pourront passer ces outils au test sur des projets réels.

    OpenAI o1 fait partie des nouveaux modèles qui se distinguent par leurs « capacités de raisonnement » semblables à celles d’un humain

    Les modèles de la série o1 sont entraînés pour passer plus de temps à réfléchir avant de répondre, imitant ainsi le processus de pensée humaine. Cette approche permet aux modèles de décomposer les problèmes en étapes plus petites, d’essayer différentes stratégies et de reconnaître leurs erreurs. Par exemple, lors d’un examen de qualification pour l’Olympiade Internationale de Mathématiques, le modèle o1 a résolu 83 % des problèmes, contre seulement 13 % pour le modèle GPT-4o.

    Le modèle améliore également les performances sur des questions de programmation compétitives et a dépassé le niveau de précision d'un doctorant humain sur une référence de problèmes scientifiques, selon OpenAI.

    Expliquant le processus de réflexion de o1 dans un billet de blog, OpenAI a écrit :

    « Nous avons formé ces modèles pour qu'ils passent plus de temps à réfléchir aux problèmes avant de réagir, comme le ferait une personne. Grâce à l'entraînement, ils apprennent à affiner leur processus de réflexion, à essayer différentes stratégies et à reconnaître leurs erreurs.

    « Lors de nos tests, la prochaine mise à jour du modèle a obtenu des résultats similaires à ceux d'étudiants en doctorat sur des tâches de référence difficiles en physique, chimie et biologie. Nous avons également constaté qu'il excelle en mathématiques et en codage. Lors d'un examen de qualification pour les Olympiades internationales de mathématiques (IMO), GPT-4o n'a résolu correctement que 13 % des problèmes, tandis que le modèle de raisonnement a obtenu un score de 83 %. Leurs capacités de codage ont été évaluées lors de concours et ont atteint le 89e percentile dans les compétitions Codeforces. Pour en savoir plus, consultez notre article sur la recherche technique.

    « En tant que modèle précoce, il ne dispose pas encore de la plupart des fonctionnalités qui rendent ChatGPT utile, comme la recherche d'informations sur le web et le téléchargement de fichiers et d'images. Pour de nombreux cas courants, GPT-4o sera plus performant à court terme.

    « Mais pour les tâches de raisonnement complexes, il s'agit d'une avancée significative qui représente un nouveau niveau de capacité de l'IA. C'est pourquoi nous remettons le compteur à 1 et nommons cette série OpenAI o1 ».

    Concernant OpenAI o1-mini, l'entreprise explique :

    « La série o1 excelle dans la génération et le débogage précis de codes complexes. Afin d'offrir une solution plus efficace aux développeurs, nous lançons également OpenAI o1-mini, un modèle de raisonnement plus rapide et moins cher, particulièrement efficace pour le codage. En tant que modèle plus petit, o1-mini est 80 % moins cher que o1-preview, ce qui en fait un modèle puissant et rentable pour les applications qui requièrent un raisonnement mais pas une connaissance étendue du monde ».

    Pour OpenAI, o1 représente un pas en avant vers son objectif plus large d'une intelligence artificielle semblable à celle de l'homme. D'un point de vue plus pratique, il permet d'écrire du code et de résoudre des problèmes en plusieurs étapes plus facilement que les modèles précédents.

    Nom : 0.png
Affichages : 7595
Taille : 168,0 Ko

    Malgré les avancées de l'IA, la vigilance humaine reste indispensable

    L’erreur de ChatGPT qui a coûté 10 000 dollars à une startup est un rappel que, malgré les avancées de l’IA, la vigilance humaine reste indispensable. Les outils d’IA sont puissants, mais ils ne remplacent pas le jugement critique et l’expertise des développeurs. En fin de compte, c’est la responsabilité des équipes humaines de s’assurer que la technologie qu’elles utilisent est sûre et fiable.

    D'ailleurs, l'erreur ne saurait être imputable entièrement à ChatGPT : les développeurs auraient du prendre la peine d'analyser le code au lieu de se limiter à quelques tests avant la copie. Ils semblent le reconnaître lorsqu'ils déclarent :

    « Je voudrais commencer par dire que les pratiques en question sont très mauvaises et embarrassantes (et nous avons depuis ajouté des tests unitaires et d'intégration robustes ainsi que des alertes et des enregistrements), qu'elles auraient pu et dû être évitées, qu'il s'agissait d'erreurs humaines au-delà de tout, et qu'elles sont très évidentes avec le recul.

    « Cela s'est passé à une autre époque, avec d'importantes contraintes de temps, aux tout premiers stades (premières semaines) de la création d'une entreprise. Je partage surtout cette histoire comme une anecdote amusante avec des circonstances uniques entourant la reproductibilité des bogues en prod (encore une fois à cause de notre propre stupidité) ».

    Quoi qu'il en soit, tout est bien qui finit bien : « Rétrospectivement, aussi pénibles qu'aient été ces cinq jours, c'est l'un de ces moments de la vie d'une startup que nous n'oublierons jamais. Comme toutes les startups, nous avons fait une tonne d'erreurs tout au long de notre parcours, celle-ci étant peut-être la pire. J'évoquerai peut-être les autres plus tard. Nous sommes simplement heureux de pouvoir regarder ces jours-là en arrière et d'en rire. Oui, nous aurions dû faire plus de tests. Oui, nous n'aurions pas dû copier-coller du code. Oui, nous n'aurions pas dû passer directement à l'application principale. Quoi qu'il en soit, je ne regrette pas cette expérience ».

    Nom : 1.png
Affichages : 1365
Taille : 187,5 Ko

    Le concessionnaire Chevrolet a de même procédé à l’intégration d’un chatbot basé sur ChatGPT à son site web. Objectif : automatiser la gestion des requêtes des clients. Un acquéreur de véhicule est ensuite parvenu à le tromper pour l’amener à lui proposer une Chevy Taho édition 2024 pour 1 dollar. D’autres internautes ont rapporté avoir reçu des recommandations de véhicules Tesla à partir du même site web géré par ledit chatbot.

    Nom : 2.png
Affichages : 1371
Taille : 249,8 Ko

    Source : OpenAI

    Et vous ?

    Pensez-vous que les capacités de raisonnement des IA peuvent surpasser celles des humains dans un avenir proche ? Pourquoi ?
    Quels sont, selon vous, les domaines où ces nouveaux modèles d’IA pourraient avoir le plus grand impact ?
    Quels sont les risques potentiels de dépendre trop fortement des IA pour des tâches complexes ?
    Comment les entreprises et les gouvernements devraient-ils réguler l’utilisation des IA pour garantir qu’elles sont utilisées de manière responsable ?
    Pensez-vous que les IA devraient avoir des limites dans leur capacité à prendre des décisions autonomes ? Si oui, quelles devraient être ces limites ?
    Comment les capacités de raisonnement des IA pourraient-elles transformer le secteur de l’éducation ?
    Comment les IA avec des capacités de raisonnement pourraient-elles changer la dynamique du marché du travail ?
    Voyez-vous des avantages ou des inconvénients à ce que les IA participent à des processus de prise de décision dans des domaines critiques comme la médecine ou la justice ?

    Voir aussi :

    La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
    La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
    Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
    Les actions Tesla chutent après que son système d'autopilote soit impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  3. #3
    Invité
    Invité(e)
    Par défaut
    Quels sont les risques potentiels de dépendre trop fortement des IA pour des tâches complexes ?
    Faible puisque cela dépend de votre porte-monnaie, ainsi que l'indique le titre ...

  4. #4
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 365
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 365
    Par défaut OpenAI a lancé une version plus puissante de son modèle d'IA qui «raisonne» o1 : o1-pro
    OpenAI a lancé une version plus puissante de son modèle d'IA qui « raisonne » o1 : o1-pro est son LLM le plus coûteux à ce jour
    et est disponible dans son API pour développeurs

    Actuellement, ce modèle est uniquement accessible aux développeurs ayant investi au minimum cinq dollars dans les services API d'OpenAI. Le coût est établi à 150 dollars pour chaque million de jetons. Cela représente 750 000 mots saisis et un coût de 600 dollars pour chaque million de jetons produits. Ceci fait de o1-pro le modèle le plus onéreux à l'heure actuelle. OpenAI a multiplié par deux le coût de GPT-4.5 (75 dollars pour un million de tokens) pour o1-pro, le rendant dix fois plus onéreux que le modèle standard o1 (15 dollars pour un million de tokens). Pour ce tarif, on ne bénéficie que d'une puissance de calcul accrue, donc des réponses plus performantes. Les spécifications, quant à elles, ressemblent à celles de o1.

    OpenAI a lancé une version plus puissante de son modèle d'IA qui « raisonne » o1, o1-pro, dans son API pour développeurs. Selon OpenAI, o1-pro utilise plus de puissance de calcul que o1 pour fournir « des réponses toujours meilleures ». Actuellement, il n'est disponible que pour certains développeurs (ceux qui ont dépensé au moins 5 dollars pour les services API d'OpenAI) et son prix est élevé... très élevé : OpenAI facture 150 dollars par million de jetons (~750 000 mots) introduits dans le modèle et 600 dollars par million de jetons générés par le modèle. C'est deux fois le prix du GPT-4.5 d'OpenAI pour l'entrée et 10 fois le prix de l'o1 normal.

    Nom : o1-pro.png
Affichages : 3783
Taille : 19,4 Ko

    OpenAI fait le pari que les performances améliorées d'o1-pro convaincront les développeurs de payer ces sommes astronomiques.

    « O1-pro dans l'API est une version d'o1 qui utilise plus de calcul pour réfléchir davantage et fournir des réponses encore meilleures aux problèmes les plus difficiles », a déclaré un porte-parole d'OpenAI. « Après avoir reçu de nombreuses demandes de la part de notre communauté de développeurs, nous sommes ravis de l'intégrer à l'API afin d'offrir des réponses encore plus fiables. »

    Pourtant, les premières impressions d'o1-pro, qui est disponible sur la plateforme de chatbot IA d'OpenAI, ChatGPT, pour les abonnés ChatGPT Pro depuis décembre, n'ont pas été incroyablement positives. Les utilisateurs ont constaté que le modèle avait du mal avec les puzzles Sudoku et qu'il se laissait surprendre par de simples blagues sur les illusions d'optique.

    « J'ai demandé à ChatGPT o1 Pro Mode de créer un SVG d'une licorne (C'est le modèle auquel vous avez accès pour 200$ par mois) »

    De nombreuses personnes sur X ne semblaient pas convaincues que les réponses du mode o1 pro étaient de niveau 200 $ : « OpenAI a-t-elle donné des exemples concrets d'invites qui échouent dans o1 normal mais réussissent dans o1-pro ? », a demandé l'informaticien britannique Simon Willison. « Je veux voir un seul exemple concret qui montre son avantage ».

    En outre, certains tests internes d'OpenAI réalisés à la fin de l'année dernière ont montré que o1-pro n'était que légèrement plus performant que o1 standard pour les problèmes de codage et de mathématiques. Il a toutefois répondu à ces problèmes de manière plus fiable, selon ces tests.

    Nom : test.png
Affichages : 222
Taille : 38,8 Ko
    Les tests internes d'OpenAI montrent que le mode pro d'o1 est à peine plus performant que le mode standard d'o1 pour les problèmes de codage et de mathématiques

    Nom : test_1.png
Affichages : 214
Taille : 38,1 Ko
    OpenAI a effectué une évaluation « plus stricte » sur les mêmes benchmarks afin de démontrer la cohérence de o1 pro mode : le modèle n'était considéré comme ayant résolu une question que s'il obtenait la bonne réponse quatre fois sur quatre. Mais même dans ces tests, les améliorations n'étaient pas spectaculaires

    S'il fallait illustrer l'utilisation d'o1-pro et son impact potentiel en termes de dépense, penchons nous sur le billet de Simon Willison qui s'est servi du LLM pour dessiner un pélican sur une bicyclette dont voici un extrait :

    Citation Envoyé par Simon Willison
    OpenAI a un nouveau modèle très cher : o1-pro est désormais accessible via son API au prix élevé de 150 millions de tokens en entrée et 600 millions de tokens en sortie. C'est 10 fois le prix de leurs modèles o1 et o1-preview et 1 000 fois plus cher que leur modèle le moins cher, gpt-4o-mini !

    A part cela, il a pratiquement les mêmes caractéristiques que o1 : une fenêtre contextuelle de 200 000 tokens, 100 000 tokens de sortie maximum, la date limite de connaissance du 30 septembre 2023 et il supporte l'appel de fonction, les sorties structurées et les entrées d'images.

    o1-pro ne prend pas en charge le streaming et, plus important encore pour les développeurs, c'est le premier modèle OpenAI à n'être disponible que via leur nouvelle API Responses. Cela signifie que les outils qui sont construits à partir de leur API Chat Completions (comme mon propre LLM) doivent faire beaucoup plus de travail pour supporter le nouveau modèle.

    Comme LLM ne supporte pas encore ce nouveau modèle, j'ai dû me contenter de curl :

    Code cURL : Sélectionner tout - Visualiser dans une fenêtre à part
    1
    2
    3
    4
    5
    6
    7
    curl https://api.openai.com/v1/responses \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer $(llm keys get openai)" \
      -d '{
        "model": "o1-pro",
        "input": "Generate an SVG of a pelican riding a bicycle"
      }'
    La menace de la reproductibilité par la distillation

    De façon brossée, la distillation des modèles, ou knowledge distillation, est une méthode permettant de transférer les connaissances d’un modèle volumineux (appelé modèle professeur) vers un modèle plus petit (modèle étudiant). L’objectif est de capturer l’essence des performances du modèle initial tout en diminuant la complexité computationnelle et les coûts associés. Bien sûr, en pratique, ce n'est pas aussi simple mais l'idée ici est d'expliquer le principe.

    Cette approche repose sur plusieurs principes :
    • Transfert de connaissances implicite : Le modèle professeur entraîne le modèle étudiant en lui fournissant non seulement les bonnes réponses, mais aussi des indications sur la manière dont il prend ses décisions.
    • Réduction des besoins en calcul : Un modèle plus petit consomme moins d’énergie et nécessite moins de puissance de calcul, le rendant plus accessible.
    • Maintien des performances : Grâce à des techniques avancées de distillation, les modèles étudiants peuvent atteindre des résultats comparables à ceux des modèles professeurs avec une fraction de leur taille initiale.

    Nom : distillation.png
Affichages : 210
Taille : 41,7 Ko

    Depuis longtemps, les dépenses massives des géants de la technologie en matière d'intelligence artificielle suscitent des inquiétudes.

    Et pourtant, le 20 janvier, DeepSeek, dirigé par le gestionnaire de fonds spéculatifs chinois Liang Wenfeng, a publié le modèle d'IA R1 sous une licence MIT ouverte, la plus grande version contenant 671 milliards de paramètres. Elle a pris la Silicon Valley et tout le monde de l'IA par surprise, car, selon un document rédigé par l'entreprise, DeepSeek-R1 bat les principaux modèles du secteur, comme OpenAI o1, sur plusieurs critères mathématiques et de raisonnement.

    En fait, sur de nombreux critères importants (capacité, coût, ouverture), DeepSeek donne du fil à retordre aux géants occidentaux de l'IA. DeepSeek affirme avoir créé un modèle de niveau o1 qui fonctionne à 95 % du coût. Si o1 coûte 15 $ par million de jetons d'entrée et 60 $ par million de jetons de sortie (un jeton représente environ 4 caractères), DeepSeek est estimé à environ 0,55 $ et 2,19 $ par million de jetons d'entrée et de sortie, respectivement.

    DeepSeek peut fonctionner sur des puces moins avancées. Dans un article publié fin décembre, les chercheurs de DeepSeek ont estimé qu'ils avaient construit et entraîné leur modèle V3 pour moins de 6 millions de dollars en utilisant environ 2 000 puces Nvidia H800. Les informations publiées par DeepSeek ont créé la panique sur le marché. Les investisseurs semblent se demander si la demande pour les puces haut de gamme de Nvidia n'est pas exagérée.

    DeepSeek a attiré l’attention en lançant des modèles de langage optimisés grâce à la distillation. En combinant cette approche avec d’autres techniques d’optimisation, DeepSeek a prouvé qu’il est possible de créer des modèles plus légers et efficaces sans sacrifier la qualité des réponses générées.

    Nom : dis.png
Affichages : 193
Taille : 127,0 Ko

    Un modèle économique plus viable pour l’IA

    L’une des conséquences majeures de cette avancée est la diminution des coûts d’exploitation des modèles d’IA. Jusqu’à présent, les grandes entreprises comme OpenAI, Google et Meta investissaient des sommes colossales dans des modèles massifs nécessitant des infrastructures complexes et énergivores. Avec la distillation, il devient possible de proposer des alternatives plus économiques et accessibles aux petites entreprises et startups, qui ne disposent pas des mêmes moyens financiers.

    Bien que la distillation soit largement utilisée depuis des années, les progrès récents ont conduit les experts de l'industrie à penser que le processus sera de plus en plus une aubaine pour les start-ups qui cherchent des moyens rentables de créer des applications basées sur la technologie.

    « La distillation est tout à fait magique », a déclaré Olivier Godement, responsable des produits pour la plateforme OpenAI. « Il s'agit d'un processus qui consiste essentiellement à prendre un très grand modèle de pointe et à l'utiliser pour enseigner un modèle plus petit[...] très performant dans des tâches spécifiques et dont l'exécution est très bon marché et très rapide ».

    Sources : OpenAI, Simon Willison

    Et vous ?

    Qu'en pensez-vous ? Seriez-vous prêt à débourser autant pour vous servir de ce modèle pro même si les premiers retours n'ont pas fait état d'une différence nette ?

    Le prix vous semble-t-il justifié ? Dans quelle mesure ?

    La distillation représente-t-elle une menace sérieuse pour les LLM d'OpenAI ? Pourquoi ?

    Voir aussi :

    Le modèle de raisonnement d'OpenAI « pense » souvent en chinois : Personne ne peut expliquer pourquoi

    Des chercheurs chinois viennent de percer les secrets de l'AGI d'OpenAI, avec un plan détaillé qui révèle comment recréer les capacités de raisonnement du modèle o1 d'OpenAI à partir de zéro
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. OpenAI annonce la disponibilité générale de son API GPT-4
    Par Bruno dans le forum Intelligence artificielle
    Réponses: 21
    Dernier message: 07/07/2023, 11h49
  2. OpenAI annonce un système robotique capable de manipuler des objets
    Par Bill Fassinou dans le forum Intelligence artificielle
    Réponses: 4
    Dernier message: 01/08/2018, 11h56
  3. Réponses: 4
    Dernier message: 23/03/2017, 08h57
  4. Apple annonce la disponibilité de la mise à jour iOS 9.3
    Par Stéphane le calme dans le forum Développement iOS
    Réponses: 1
    Dernier message: 24/03/2016, 15h09
  5. Microsoft annonce le déploiement d'une mise à jour de Windows Phone Preview
    Par Stéphane le calme dans le forum Windows Phone
    Réponses: 1
    Dernier message: 26/09/2014, 17h06

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo