cleanshot 2024 12 30 at 09 03 39 2x 1024x591
High-tech

Le ChatGPT chinois se dévoile, les Américains peuvent trembler


Alors qu’OpenAI semble à la peine pour sortir son nouveau modèle de langage, GPT-5o, l’entreprise chinoise DeepSeek fait une avancée extraordinaire.

Si elle était jusqu’ici inconnue du grand public, l’entreprise chinoise travaille depuis un an sur un grand modèle de langage (LLM) susceptible de rivaliser avec ceux d’OpenAI (ChatGPT) ou Anthropic (Claude). D’après les premiers retours sur DeepSeek v3, la promesse est – en grande partie – tenue.

À partir de

1 649,99€

En stock

Acheter sur Fnac.com

Un LLM open source ultraperformant

Annoncée il y a quelques jours, DeepSeek V3 est la dernière version en date du LLM conçu par l’entreprise éponyme. Un modèle totalement open source, proposant 671 milliards de paramètres – c’est 65 % plus que Llama 3.1, le LLM de Meta jusqu’ici considéré comme le plus large au monde.

Accessible gratuitement pour tous les internautes à cette adresse (la création d’un compte est requise), DeepSeek V3 se présente dans une interface extrêmement proche (pour ne pas dire copiée) de celle de ChatGPT. Une fenêtre épurée, au centre de laquelle trône un champ permettant de saisir du texte et de poser des questions à l’intelligence artificielle. Un bouton « Search », copiant celui permettant d’utiliser le moteur de recherche de ChatGPT, est même présent pour obtenir des résultats sourcés en provenance du Web.

L’un des atouts de DeepSeek V3 est de proposer une meilleure réponse de traitement que ses concurrents, avec 60 tokens par seconde.

Plus performant et plus efficient ?

Dans une série de posts sur X, DeepSeek prend le temps de comparer les différents modèles de langage présents sur le marché et s’affaire à montrer que sa solution est plus performante et moins coûteuse que celle des concurrents américains.

DeepSeek V3 aurait en effet été entraîné en un an à partir de 14,8 trillions de tokens de « haute qualité » (autrement dit des données), pour « seulement » 5,5 millions de dollars. On écrit « seulement », car les grands modèles américains auraient coûté dix fois plus cher à développer, assure l’entreprise chinoise.

En sa qualité de solution ouverte et grâce à la disponibilité d’interfaces de programmation (API), DeepSeek espère convaincre les développeurs d’utiliser son modèle plutôt que celui de la concurrence en agitant sous leur nez la promesse de meilleurs résultats, par ailleurs moins coûteux.

Quant à savoir si son modèle a été entraîné sur des données personnelles et des œuvres d’art protégées, le livre blanc de DeepSeek reste muet, comme sur ce qui concerne la quantité d’énergie requise pour alimenter son richissime modèle de langage.



Source link

Une réaction ?

Drôle
0
Tendre
0
J'adore
0
A réfléchir
0
WTF
0
Jérôme
Passionné par l'écriture et les nouvelles technologies, Jérôme est un rédacteur spécialisé dans le domaine du numérique et de la communication. Fort de plusieurs années d'expérience, il a collaboré avec diverses entreprises et publications, développant une solide expertise en stratégie de contenu et en gestion de la e-réputation. Jérôme s'intéresse particulièrement aux défis modernes de la présence en ligne. Qu'il s'agisse d'aider des particuliers à soigner leur image ou d'accompagner des entreprises dans la construction d'une réputation digitale solide, il met un point d'honneur à proposer des contenus percutants et bien ciblés. Sa plume fluide et son sens de l'analyse lui permettent de transformer des sujets complexes en lectures captivantes et accessibles à tous. Quand il ne rédige pas, Jérôme consacre son temps à la lecture d'ouvrages sur le marketing digital, à l'écoute de podcasts inspirants ou à des escapades en plein air, où il puise son inspiration pour ses prochains articles.

    Vous pourriez également aimer

    More in:High-tech

    Poster un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *