ChatGPT est le chatbot de l'IA qui permet aux utilisateurs de mener des conversations semblables à celles des humains et de donner des tâches à l'utilisateur : de la résolution de problèmes mathématiques à l'analyse de contenu en passant par la rédaction de textes. Le chatbot est basé sur différentes versions de modèles linguistiques.
Le modèle de langage qui a rendu ChatGPT célèbre dans le monde entier et qui, en novembre 2022, a généré plus d'un million d'utilisateurs en l'espace d'une semaine après sa publication, est GPT-3.5. Le modèle d'IA a continué à être développé. Entre-temps (juillet 2024), il existe plusieurs variantes du modèle.
Dans cet article de blog, nous te disons tout ce qu'il faut savoir sur ce modèle, ses différentes versions et son remplacement par le plus récent GPT-4o Mini.
Quelle est la situation actuelle ?
Le modèle GPT-3.5 a été supprimé en juillet 2024 avec presque toutes ses versions. Seul le modèle Turbo est utilisable de manière limitée. La raison de la suppression de la version GPT-3.5 est son remplacement par le modèle GPT-4o Mini, plus performant.
Pour mieux comprendre les modèles et le contenu de cet article de blog, il est important de connaître quelques informations de base. Voici un résumé des informations les plus importantes :
- Pour l'utilisation des modèles linguistiques, il convient de distinguer deux offres différentes de l'entreprise OpenAI.
- La première offre est le chatbot appelé ChatGPT. Tu peux te faire une idée plus précise du chatbot dans notre outil ChatGPT. Tu poses des tâches ou des questions au chatbot et il y répond.
- L'autre offre est l'API d'OpenAI, une interface de programmation. Celle-ci se distingue du chatbot en ce sens qu'elle permet aux développeurs d'intégrer le modèle linguistique dans leur environnement de développement.
- Il y a donc une différence entre les utilisateurs d'un modèle linguistique, par exemple les étudiants ou les auteurs qui effectuent des recherches à l'aide de ChatGPT, et les développeurs qui utilisent uniquement le modèle d'IA de manière individuelle.
-
Entretien stratégique gratuit
SEO
Lors d'un entretien stratégique gratuit sur le référencement, nous découvrirons les potentiels inexploités et élaborerons une stratégie pour que tu aies plus de succès sur Google.
- Plus de visibilité organique
- Plus de visiteurs organiques sur ton site web
- Plus de demandes et de ventes
La situation actuelle pour les utilisateurs de chatbots
Si tu t'intéresses au chatbot ChatGPT, que tu peux interroger en fin de compte comme un moteur de recherche via un simple champ de saisie, tu ne peux plus du tout utiliser le modèle GPT-3.5. Il a été complètement remplacé par les modèles GPT-4o Mini et GPT-4.
En remplaçant le GPT-3.5 par le modèle plus récent GPT-4o Mini, tu profites d'une sortie plus rapide des réponses, d'une qualité généralement plus élevée du chatbot et d'une quantité plus importante de fonctions. Cela va de pair avec une plus grande précision des réponses. De plus, les nouvelles versions du modèle d'IA ont été entraînées avec des données plus récentes.
La société OpenAI a intégré par défaut le nouveau modèle GPT-4o Mini dans son tarif gratuit Free. De plus, dans le tarif Free, tu as un accès limité au modèle phare GPT-4o. Le tarif payant "ChatGPT Plus" n'inclut plus non plus la GPT-3.5 ; il te donne un accès illimité aux modèles GPT-4, GPT-4o Mini et GPT-4o.
La situation actuelle pour les développeurs
Les développeurs ont encore accès au modèle GPT-3.5 Turbo, mais plus aux anciens modèles de GPT-3.5. Le modèle Turbo est disponible en deux variantes :
- GPT-3.5 Turbo 0125
- GPT-3.5 Turbo Instruct
Les deux modèles se distinguent par leur fenêtre de contexte. La fenêtre de contexte indique le nombre de jetons qu'un modèle de langage peut traiter dans une requête - je veux dire par là
Plus la fenêtre contextuelle est grande, plus un modèle GPT peut traiter d'informations dans un contexte donné. Une grande fenêtre contextuelle favorise par exemple la communication cohérente et donc la qualité des réponses.
Si la fenêtre de contexte est petite, un modèle d'IA ne peut pas discuter d'un sujet ou effectuer une tâche de manière cohérente pendant une longue période. Les utilisateurs doivent alors saisir une nouvelle entrée et poser à nouveau la tâche.
La fenêtre contextuelle du GPT-3.5 Turbo 0125, avec près de 16 000 tokens (16k tokens), est nettement plus élevée que celle du modèle GPT-3.5 Turbo Instruct, qui n'atteint que 4k tokens.
Les développeurs peuvent utiliser GPT-3.5 Turbo dans les deux versions mentionnées. Toutefois, la société OpenAI recommande de passer au modèle GPT-4o Mini, car il est plus performant, offre plus de fonctionnalités et coûte beaucoup moins cher que le modèle Turbo. Par exemple, la GPT-4o Mini dispose d'une fenêtre contextuelle de 128k, ce qui représente une nette amélioration de la qualité.
Informations générales sur ChatGPT-3.5 : histoire, capacités et données de performance
La société OpenAI a ouvert au grand public l'utilisation d'un modèle d'IA dès la fin de l'année 2019, à savoir le modèle GPT-2. Compte tenu de ses 1,5 milliard de paramètres, GPT-2 faisait déjà partie des modèles à grand langage (LLM), mais était loin d'être aussi abouti que le modèle GPT-3.5, qui a acquis une notoriété mondiale peu après sa publication.
GPT-3.5 a été entraîné avec 17 milliards de paramètres. Grâce à la technologie supplémentaire d'apprentissage en profondeur, de vastes structures neuronales se forment et s'interconnectent dans ce modèle d'IA et dans les modèles suivants d'OpenAI. Il en résulte une intelligence artificielle (IA) qui peut par exemple créer ses propres textes, ses propres images et donner des réponses individuelles aux questions des utilisateurs.
Dans la série de modèles de l'entreprise OpenAI, GPT-3.5 a marqué une étape importante, car le modèle linguistique était facile à utiliser grâce au chatbot ChatGPT et pouvait donc être manipulé sans problème par des utilisateurs sans connaissances informatiques.
Étant donné qu'à l'exception du GPT-4, les modèles d'IA n'ont pas accès à des données actualisées via Internet et ne peuvent donc pas se former eux-mêmes, l'actualité des ensembles de données issus de la formation est un facteur important pour l'évaluation de la qualité. Les données des modèles 3.5 datent de septembre 2021. Le nouveau modèle GPT-3.5 Turbo a été entraîné avec des données de septembre 2023.
Au cours des mois suivant la première publication, de nouvelles versions de la génération GPT-3.5 ont suivi. Les modèles Turbo représentaient une évolution de GPT-3.5 et comportaient des extensions fonctionnelles. L'une de ces extensions offrait aux développeurs la possibilité d'entraîner le modèle d'IA avec leurs propres données par le biais de ce que l'on appelle le "réglage fin" (en anglais Finetuning).
GPT-3 offrait également la possibilité d'entraîner individuellement le modèle d'IA. Dans GPT-3, les variantes "davinci-002" et "babbage-002" le permettaient. Toutefois, la possibilité de réglage fin offerte par GPT-3.5 Turbo s'accompagnait de beaucoup plus d'options de personnalisation du modèle linguistique.
Pour préserver la sécurité de l'IA, les données devaient passer par un réseau de sécurité OpenAI lors du réglage fin et être vérifiées afin de préserver la sécurité de l'IA.
En outre, le modèle GPT-3.5 a introduit le magasin de GPT, qui remplace le magasin de plug-ins et permet aux utilisateurs de personnaliser le modèle d'IA selon leurs propres idées. Pour cela, il existe les GPT personnalisées. Contrairement à la personnalisation fine, les utilisateurs du Store n'ont pas besoin de connaissances informatiques pour créer des GPT personnalisées.
Même si le modèle plus avancé GPT-4 a été lancé entre-temps, la GPT-3.5 Turbo a duré jusqu'en juillet 2024 et est toujours accessible aux développeurs. Cependant, ne serait-ce qu'en raison de sa moindre rentabilité par rapport à la GPT-4o Mini (cette dernière est par exemple 35 centimes moins chère par million de jetons d'entrée), on peut s'attendre à ce que la version GPT-3.5 Turbo, et donc la GPT-3.5 en général, disparaisse complètement du paysage.
Pour les utilisateurs du chatbot ChatGPT, GPT-3.5 Turbo n'est plus du tout disponible. L'avenir appartient d'abord aux modèles d'IA GPT-4, GPT-4o Mini et GPT-4o et, au cours des prochaines années, à tous les autres nouveaux développements d'OpenAI.
- Je suis l'un des principaux experts SEO en Allemagne
Je suis connu des grands médias comme Stern, GoDaddy, Onpulson & Frühstücksfernsehen et j'ai déjà fait plus de 100+ clients de renom sur Google.
Évaluation Google
Basé sur 185 évaluations
Évaluation Trustpilot
Basé sur 100 évaluations
Fonctions et qualité de GPT-3.5 Turbo
GPT-3.5 Turbo est capable d'effectuer de nombreuses tâches. Parmi celles-ci, la création de contenus au format texte.
Une faiblesse par rapport aux modèles plus récents comme le GPT-4o Mini et le GPT-4o est le fait que le modèle Turbo n'a pas de capacités multimodales. Cela signifie qu'il n'est pas possible d'entrer des fichiers image, son et vidéo ou que ceux-ci ne sont pas traités par l'IA.
Dans l'ensemble, le modèle Turbo possède entre autres les capacités et fonctions suivantes:
- Créer, analyser et traduire des textes
- résoudre des problèmes mathématiques
- le chat : Conduite de conversations simples et différenciées
- Service clientèle
- Créer des images
Pour évaluer la qualité des modèles d'IA, il existe ce que l'on appelle des benchmarks d'IA. Ceux-ci ne sont en fin de compte rien d'autre que des examens avec un déroulement précis. Un benchmark important est le MMLU (Massive Multitask Language Understanding), qui évalue les connaissances générales de l'IA et ses capacités à résoudre des problèmes.
Dans le benchmark MMLU, le modèle Turbo obtient un score de 69,8 %. Pour illustrer à l'aide de ce benchmark la nette différence avec le nouveau modèle GPT-4o Mini : GPT-4o Mini obtient 82% au MMLU. Le nouveau modèle GPT-4o Mini, qui remplace le GPT-3.5 Turbo, est donc bien meilleur.
L'introduction de capacités multimodales dans GPT-4o Mini est également un développement bienvenu. L'entreprise OpenAI propose déjà l'entrée de fichiers image sur GPT-4o Mini. À l'avenir, OpenAI prévoit également la possibilité d'entrer des fichiers vidéo et audio.
L'un des changements les plus importants dans le modèle successeur de GPT-3.5 Turbo est toutefois la protection contre les injections d'invites. Les invites sont des commandes suivies par un modèle d'IA. Cependant, les injections d'invite sont des commandes de manipulation, comme par exemple l'ordre d'ignorer toutes les instructions des développeurs d'OpenAI.
Le modèle GPT-3.5 Turbo est vulnérable aux injections à l'invite. Il s'agit d'un problème grave, car l'instruction de ne pas respecter la programmation de l'entreprise OpenAI pourrait conduire à l'utilisation et à la manipulation de l'IA à des fins totalement différentes. Elle pourrait ainsi potentiellement causer des dommages et être instrumentalisée par des pirates informatiques à leurs fins. Avec GPT-4o Mini, cette faille de sécurité est désormais comblée.
Valeurs de performance de GPT-3.5 Turbo
Avec une fenêtre de contexte de 16.000 tokens, GPT-3.5 Turbo 0125 est capable de traiter environ 21 pages de texte en entrée et en sortie. C'est une plaisanterie par rapport aux 128.000 tokens de la fenêtre de contexte de GPT-4o Mini. Néanmoins, l'utilisation de GPT-3.5 Turbo a déjà permis de constater qu'avec 16k tokens, il est possible de créer des textes raisonnables et de mener une courte discussion.
L'augmentation à 128k tokens pour GPT-4o Mini est donc une mise à niveau qui se fait sentir lors de l'utilisation du chatbot et pour les développeurs lors de l'utilisation de l'API.
ChatGPT fournit désormais des réponses encore plus complètes et peut mener un chat sur une longue durée sans perdre le fil. La fenêtre contextuelle allongée rend le GPT-4o Mini beaucoup plus adapté aux travaux scientifiques et autres tâches de plus grande envergure que le modèle GPT-3.5 Turbo.
Un autre critère de performance est la question de la rapidité d'émission des jetons. Une évaluation de ce critère est effectuée par la vitesse de distribution. Avec une vitesse de 166-182 tokens par seconde, la GPT-4o Mini est nettement supérieure au modèle GPT-3.5 Turbo. En ce qui concerne le modèle Turbo, il n'est pas possible de trouver des données concrètes sur la vitesse de sortie, mais dans la pratique, il s'avère que ce modèle est plus lent.
Les coûts du modèle GPT-3.5 Turbo sont injustement élevés, compte tenu des données de performance, par rapport aux concurrents Google Gemini 1.5 Flash et Claude 3 Haiku. Pour le GPT-3.5 Turbo 0125, les coûts s'élèvent à 0,50 dollar US par million de jetons d'entrée et même à 1,50 dollar US par million de jetons de sortie. Le modèle GPT-3.5 Turbo Instruct est encore plus cher.
Les développeurs qui souhaitent économiser de l'argent peuvent opter pour le nouveau modèle GPT-4o Mini, car les prix par million de jetons d'entrée sont de 0,15 dollar US et les prix par million de jetons de sortie sont de 0,60 dollar US - il s'agit donc d'économies substantielles !
Conclusion : une étape importante, proche de la date d'expiration
GPT-3.5 a constitué la base du boom de l'IA. C'est le modèle linguistique qui a fait connaître le chatbot ChatGPT en Europe et dans le monde entier. La simplicité d'utilisation de ChatGPT - entrer une question dans le champ de saisie et obtenir une réponse - semblable à un moteur de recherche, a permis aux utilisateurs d'utiliser facilement l'IA à leurs fins.
Au fil du temps, la GPT-3.5 a continué à évoluer. Une évolution notable a été le modèle GPT-3.5 Turbo, qui avait même au départ une fenêtre de contexte plus grande que le modèle phare ultérieur GPT-4, avant que GPT-4 ne soit optimisé. Mais, surtout pour les développeurs qui souhaitaient intégrer GPT-3.5 Turbo dans leur environnement de développement, le coût élevé de GPT-3.5 a toujours été un problème central.
Avec le nouveau GPT-4o Mini, l'entreprise OpenAI a lancé sur le marché une option avantageuse pour remplacer le modèle Turbo. Le GPT-4o Mini appartient à la dernière génération de modèles d'IA d'OpenAI et supporte les fonctions multimodales. De plus, GPT-4o Mini entraîne des baisses de prix considérables, ce qui constitue un immense avantage pour les développeurs.
Suite à ce nouveau modèle, GPT-3.5 Turbo disparaîtra de plus en plus du paysage et les modèles les plus récents prendront sa place. Dans le chatbot ChatGPT, GPT-3.5 Turbo ne joue déjà plus aucun rôle. Pour l'instant, les développeurs ont encore accès à l'API avec le modèle Turbo.
- Connais-tu ma newsletter SEO ?
Inscrivez-vous maintenant et recevez régulièrement des conseils d'experts.