ChatGPT

Depuis décembre 2022, ChatGPT fait parler de lui. Ce chatbot d’intelligence artificielle est capable de répondre à des questions et de générer du texte d’une manière fiable et précise qu’on n’avait jamais vraiment vue auparavant. Mais entre les fantasmes, les prédictions et les peurs que génère cette IA, il y a plein d’usages possibles, mais aussi des limites. Faisons le point sur ce qu’est réellement ChatGPT.

Le 30 novembre 2022, la société OpenAI a publié ChatGPT, un chatbot d’intelligence artificielle capable de répondre à toutes les questions. Très vite, la machine s’emballe. Des millions de personnes testent l’outil : ses possibilités, ses limites et ses dérives. De quoi faire fonctionner le battage médiatique de plus belle, y compris chez Frandroid. Tout cela a engendré de la confusion et surtout des contre-vérités. Pour tout savoir sur ChatGPT, ne cherchez plus : c’est ici.

ChatGPT, qu’est-ce que c’est ?

ChatGPT a été présenté par OpenAI comme un modèle d’intelligence artificielle, interagissant « de manière conversationnelle », permettant à cet outil de « répondre aux questions de suivi, d’admettre ses erreurs, de contester les prémices incorrectes et de rejeter les demandes inappropriées. »

La définition simple du chatbot

ChatGPT est ce qu’on appelle un « agent conversationnel », autrement dit un chatbot. C’est un programme informatique avec lequel on communique par le biais d’une discussion en temps réel, d’un « chat ». Jusqu’à maintenant, les chatbots étaient essentiellement le fait d’algorithmes basiques pour lesquels on programmait des réponses pré-faites en fonction de certaines questions. Un travail fastidieux qui limitait indéniablement les performances de ces agents. Mais avec l’intelligence artificielle, les possibilités sont plus ou moins infinies. Les chatbots d’IA peuvent répondre à davantage de questions, de manière plus longue et notamment plus complexe.

Comment fonctionne ChatGPT ?

Et si nous vous disions que ChatGPT n’était pas « intelligent » au sens propre du terme ? C’est ce qu’on pourrait se dire en ayant une analyse très pragmatique de ce que fait l’outil lorsqu’il génère une réponse. En effet, ChatGPT ne comprend littéralement pas ce que vous lui dites ni ce qu’il écrit.

En fait, ChatGPT est plutôt un outil de prédiction : son objectif est de prédire le prochain mot d’une phrase, à partir de tous les autres mots situés avant. Ces autres mots étant les indications que vous lui donnez et les phrases qu’il a écrites juste avant. Il met tout cela en relation avec ses données d’entraînement, en cherchant de quoi rédiger une réponse appropriée. Il génère ensuite les réponses en prédisant les mots pour qu’elles correspondent au contexte. ChatGPT ne fait rien d’autre que de la statistique et des probabilités : ce qu’il se pose comme question, c’est « quel est le mot le plus probable dans cette situation ? » Le chatbot se base alors sur ses données d’entraînement, qui contiennent des quantités gigantesques de séquences de phrases. Avant d’envoyer la réponse, l’IA l’évalue et peut l’ajuster.

Qu’est-ce que GPT, le modèle de langage derrière ChatGPT ?

Derrière ChatGPT, il y a ce qu’on appelle un « Large Language Model » (LLM), qui peut se traduire par un grand modèle de langage en français. C’est en quelque sorte le « moteur » de ChatGPT. Pour faire simple, un grand modèle de langage est un modèle linguistique composé d’un réseau de neurones et qui prend en compte beaucoup de paramètres (l’ordre de grandeur étant en milliards). Ce sont ces paramètres qui forment la syntaxe, le vocabulaire, la ponctuation, la conjugaison, et qui permettent à ChatGPT d’écrire des phrases correctes grammaticalement.

GPT-4 imaginé par Midjourney

Ces modèles sont généralement entraînés sur de grandes quantités de texte. Un entraînement qui est parfois entièrement automatisé ou supervisé, ou les deux en même temps. Là où des modèles d’intelligence artificielle sont la plupart du temps entraînés à une tâche précise, les grands modèles de langage ne sont pas spécialisés, leurs usages peuvent être divers. Plus ils sont entraînés, plus ils sont performants. Pour cela, il faut de la puissance de calcul, ce qui sous-entend des serveurs performants, et indéniablement, de l’argent.

À l’heure actuelle, la version gratuite de ChatGPT fonctionne sur le modèle de langage GPT-3.5, conçu jusqu’à début 2022 et entraîné sur les serveurs de Microsoft.

Comment ChatGPT a-t-il été entraîné ?

La méthode utilisée pour l’entraînement est nommée « Reinforcement Learning from Human Feedback (RLHF) », qu’on pourrait traduire par apprentissage par renforcement à partir de retour de l’humain. Le modèle GPT-3.5 a été entraîné en partie par des humains. Ils ont fourni à l’IA des conversations dans lesquelles ils jouaient les deux parties : l’utilisateur et le chatbot. Ces réponses ont été composées en partie par l’IA et les entraîneurs humains ont améliorées pour montrer à l’IA comment répondre.

À l’aide d’un système de récompense pour l’apprentissage par renforcement, OpenAI a collecté des données des réponses générées classées par des humains pour affiner le modèle. Cela a été le cas sur plusieurs itérations du processus. En plus de tout ça, ChatGPT se nourrit des conversations qu’il a avec ses utilisateurs, sauf ceux qui ont choisi de ne pas partager leur historique de discussion.

ChatGPT est-il intelligent ?

D’un point de vue pratique, ChatGPT n’est rien d’autre qu’un compléteur de texte. Mais comme a pu le faire remarquer Monsieur Phi dans une excellente vidéo pédagogique, il est en partie intelligent. Dans une certaine mesure, le chatbot comprend ce qu’on lui dit, arrive à interpréter d’une certaine manière ce qu’on lui dit, bien qu’il n’ait pas du tout conscience de ce qu’il est et de ce qu’il fait.

Cette question de l’intelligence de ChatGPT se généralise au reste des intelligences artificielles et pose cette question : les IA sont-elles intelligentes ? Le terme d’« intelligence artificielle » est en partie erroné : si on l’utilise, c’est principalement parce que les schémas de « réflexion » de ces systèmes informatiques sont semblables à ceux de notre cerveau. C’est pour cela que l’on parle de « réseaux de neurones » en la matière. Au-delà de l’IA, la question de son intelligence est nécessairement liée à notre définition de ce concept.

Que signifie « ChatGPT » ?

ChatGPT est la combinaison des termes « Chat » et « GPT ». Le premier signifie « discussion » en français, tandis que le second est l’acronyme de « Generative Pre-Trained Transformer », signifiant littéralement « transformateur génératif pré-entraîné ». Ce sont en fait les initiales du grand modèle de langage GPT dont nous avons parlé plus tôt.

GPT n’est pas une marque spécifique à OpenAI, puisque le terme renvoie à un certain type de modèle de langage : ceux entraînés avec beaucoup de textes et qui sont principalement utilisés pour générer du texte.

Combien de personnes utilisent-elles ChatGPT à travers le monde ?

Tout le monde a entendu parler de ChatGPT, mais cela ne veut pas dire que le chatbot est utilisé par tous. Comme le rapporte Similarweb, un outil d’analyse de sites web, la création d’OpenAI a connu une croissance de 132 % en janvier, qui ralentit depuis. Pour preuve : sa croissance n’aurait été que de 2,8 % par rapport à avril. ChatGPT a tout de même représenté 1,8 milliard de visites dans le monde au mois de mai, ce qui est énorme pour un site lancé en novembre.

L’évolution du nombre d’utilisateurs mensuels de ChatGPT par rapport aux autres chatbots // Source : Similarweb

Difficile d’avoir de statistiques sur le nombre d’utilisateurs individuels puisqu’OpenAI ne communique pas là-dessus. Toujours selon Similarweb, ce seraient plus de 206 millions d’utilisateurs uniques qui se seraient connectés à ChatGPT en avril. Tout cela ferait de ChatGPT le dix-septième site Internet le plus visité au monde en mai 2023 à environ 300 millions de visites de TikTok par exemple.

Les limites de ChatGPT

Malgré les textes parfois très humains que ChatGPT est en capacité de générer, le chatbot possède de sérieuses limites qui empêchent son déploiement à plus grande échelle.

ChatGPT a-t-il accès à Internet ?

ChatGPT a été entraîné avec un jeu de données immense, une grande partie d’Internet, qui s’arrête en septembre 2021. Il n’a aucune connaissance des faits qui se sont déroulés a posteriori. Les exemples basiques, c’est lorsqu’on lui poste des questions sur la guerre en Ukraine ou sur le résultat des dernières élections présidentielles françaises. ChatGPT n’a aucune connaissance de ces événements et ne peut donc s’exprimer dessus.

ChatGPT peut-il inventer des choses fausses ?

Si la plupart du temps ChatGPT écrit des réponses plausibles, elles peuvent rapidement être factuellement erronées. Pis encore, le chatbot peut parfois « halluciner » et raconter n’importe quoi. C’est le cas lorsqu’on lui demande des ouvrages sur une thématique : si les auteurs sont corrects, ils n’ont jamais écrit les livres avancés par l’IA.

On peut aussi s’en apercevoir en lui demandant de faire des opérations de calcul : très souvent, le chatbot se trompe lamentablement, pire qu’un cancre. En réalité c’est tout à fait normal : il s’agit d’un modèle de langage, conçu pour la linguistique et non pour les mathématiques.

Ce chatbot est-il performant ?

Si vous avez testé ChatGPT, reconnaissons qu’à première vue, l’outil est assez impressionnant et qu’on n’avait jamais vu ça. Mais à y lire de plus près, on s’aperçoit de certaines limites. Tout d’abord, le champ lexical : si on ne donne pas d’indication de ton ou de vocabulaire, ChatGPT manque de personnalité et est lisse au possible. Le chatbot peut aussi abuser de certaines constructions de phrases très peu originales. Il a aussi tendance à rappeler qu’il est un chatbot d’intelligence artificielle créé par OpenAI.

ChatGPT Plus : comment ça marche ?

La formule d’abonnement payante de ChatGPT se nomme ChatGPT Plus. OpenAI se veut rassurant et n’hésite pas à clamer à qui veut l’entendre que ChatGPT restera gratuit. L’abonnement est proposé à 24 dollars par mois actuellement, ce qui représente 22,50 euros environ selon le cours actuel.

Quelle différence entre la version gratuite de ChatGPT et ChatGPT Plus ?

L’abonnement permet d’avoir accès au chatbot même lorsque la demande est élevée et que les risques de saturation des serveurs sont présents. Toutefois, si cela pouvait être utile il y a quelque mois, désormais ChatGPT est accessible continuellement. Pour les plus pressés, sachez que l’abonnement Plus offre des temps de réponse plus courts.

OpenAI ajoute que ChatGPT Plus permet d’avoir accès en avance aux nouvelles fonctionnalités. C’est aujourd’hui le cas puisqu’on peut utiliser GPT-4, dernière version du modèle de langage développé par OpenAI. Dans la plupart des cas d’usages, GPT-4 et plus généralement ChatGPT Plus ne sont pas utiles, la version gratuite peut largement convenir.

Comment utiliser GPT-4 ?

La dernière version du grand modèle de langage d’OpenAI, GPT-4, est uniquement réservé aux abonnés Plus de ChatGPT. Une fois abonné, dans le menu de ChatGPT, un sélecteur vous permet de choisir entre les deux modèles de langage déployés.

Le seul inconvénient de GPT-4 par rapport à GPT-3.5 est qu’il est plus lent : pour les tâches les plus simples, privilégiez donc l’avant-dernière version de GPT.

Quelle est la différence entre GPT-4 et GPT-3.5 ?

Dans la programmation informatique par exemple, GPT-4 commet moins d’erreurs de programmation et est globalement plus performant dans cet usage, ses connaissances et compétences étant étendues. C’est parce qu’il est meilleur « pour les tâches qui nécessitent de la créativité et un raisonnement avancé », selon son concepteur.

OpenAI a réalisé des simulations d’examens pour différencier les deux modèles // Source : OpenAI

En fait, dans la plupart des cas, la différence entre les deux versions n’est pas forcément perceptible. OpenAI fait toutefois la promotion de son LLM en indiquant qu’il a passé plusieurs examens américains.

En plus de tout ça, GPT-4 peut décrire des images de façon minutieuse. Mais même avec tous ces changements, les connaissances sont toujours limitées à septembre 2021.

Les plugins : comment utiliser toute la puissance du chatbot

Le problème avec ChatGPT, c’est que le chatbot est plutôt limité à son seul site ou à sa seule application mobile. Ce qui serait bien, ce serait de pouvoir le connecter à d’autres services. L’IA générative tend à s’intégrer dans nos suites bureautiques : c’est le cas de Microsoft avec son Copilot ou de Google avec ses différents outils pour Workspace.

Heureusement, il existe pour le moment un moyen de connecter ChatGPT avec d’autres outils, via les plugins, disponibles avec ChatGPT Plus uniquement. Une fonctionnalité toujours en bêta qui permet entre autres de connecter l’IA à Internet pour avoir des réponses étudiant des résultats de recherche. D’autres permettent d’interpréter du code informatique ou de planifier ses voyages.

Les dangers liés à ChatGPT

Même avec de grandes limitations, ChatGPT inquiète dans bien des domaines. Ses dangers sont multiples, de la triche en cours au piratage informatique.

Le recours à l’IA générative par les élèves et étudiants

La génération automatique de texte en quelques secondes à partir d’une unique question est une idée séduisante pour nombre d’élèves et d’étudiants, à qui l’on demande principalement des écrits, bien que ce ne soit pas le cas dans toutes les filières. Mais ChatGPT peut être utilisé dans le cadre de réalisation d’exposés ou de devoirs maison. Un premier cas de triche en France avait notamment été détecté au sein de l’Université Lyon 1 : la moitié d’une promotion a eu recourt au chatbot pour la rédaction du devoir.

Si le flou académico-juridique est de mise, il est indéniable que l’intérêt pédagogique de la pratique peut être remis en question. D’autant plus que les textes générés étant uniques, ils ne sont pas détectés par les outils antiplagiat de mise dans les universités. D’un autre côté, dans certains cas ChatGPT n’est pas suffisamment bon par rapport au niveau attendu. De plus, comme évoqué précédemment, ses constructions et son vocabulaire sont assez simplistes, ce qui peut permettre de repérer son utilisation.

Ce que ChatGPT pourrait changer à l’enseignement, c’est ce qu’on demande aux apprenants : la nécessité d’une réflexion pourrait être plus poussée afin de décourager l’usage de ChatGPT, ou du moins de le diminuer. Dans les options qui sont en cours de réflexion, il y a la création d’une trace numérique dans les textes générés par ChatGPT, ou bien un historique qui permettrait de faire une recherche inversée. Ce qui est sûr, c’est que lors d’une vraie épreuve, la majorité des élèves et étudiants n’a pas d’ordinateur sous la main et s’ils en ont, c’est sans Internet.

La pollution des contenus publiés sur Internet

La majorité du trafic des sites Internet provient des moteurs de recherche et principalement de Google. Apparaître dans les résultats de recherche est donc le nerf de la guerre, puisque cela permet de générer davantage de trafic. L’ensemble des méthodes pour y arriver se nomme le SEO, pour Search Engine Optimization, traduisible en « optimisation pour les moteurs de recherche » ou « référencement naturel ». L’une des pratiques les plus efficaces, c’est de publier beaucoup de contenu. Le problème, c’est que cela coûte cher : il faut engager des rédacteurs et des journalistes.

Jusqu’à il y a quelques mois, certains sites peu regardants sur la qualité de leurs contenus avaient trouvé la méthode : reprendre des contenus dans une autre langue et les traduire. En effet, des outils comme DeepL ou Google Traduction sont très bons dans cet exercice. Mais aujourd’hui, cela va plus loin : ChatGPT s’invite dans la partie.

Internet se remplit de plus en plus de contenus générés automatiquement, manifestement par ChatGPT. Par ailleurs, certains sites ne sont alimentés que par des articles écrits par des IA. À long terme, ce pourrait même être le serpent qui se mord la queue : les IA se fondent sur les contenus publiés sur Internet et en tirent leur richesse. Mais si les contenus desquels elles s’inspirent ont été générés, elles pourraient se retrouver appauvries.

D’un autre côté, certains acteurs de la presse tendent à renforcer leur utilisation de l’IA, au détriment de vrais journalistes. C’est le cas de Cnet (à ne pas confondre avec nos confrères de Cnet France) : la section en Amérique du Nord aurait licencié 50 % de son personnel dédié à la rédaction d’actualités, rapportait L’ADN en mars dernier.

Des mauvais conseils aux plus jeunes

Une polémique est survenue en mars à propos de ChatGPT, ou plutôt de son modèle de langage. GPT-3.5 a été intégré à Snapchat via un bot nommé My AI. Il apparaît dans l’application comme tous les autres contacts et on peut échanger librement avec lui. Seulement voilà, à ses débuts, il a donné des conseils sordides aux plus jeunes.

Un utilisateur s’est fait passer pour une adolescente de treize ans et My AI n’a pas trouvé problématique qu’elle parte avec un adulte de trente ans dans un autre pays et même qu’elle ait un rapport sexuel avec lui.

L’aide à la création de virus informatiques

Le chatbot permet de créer des programmes facilement et même d’en corriger. Indéniablement, il peut être utilisé à des fins malhonnêtes, comme la rédaction d’un script vérolé. C’est ce qu’un chercheur a réussi à faire : créer un malware grâce à ChatGPT.

Évidemment, OpenAI a prévu des restrictions pour éviter cet usage, mais ces dernières ont été dépassées. Le chercheur en question avait fait en sorte que le chatbot réponde en écrivant séparément les lignes de code.

Le phishing rendu plus automatisé

Vous avez forcément déjà reçu des mails dits d’hameçonnage. Il s’agit de messages qui se font passer pour des institutions ou des entreprises : La Poste, les impôts, Netflix, Amazon, Colissimo, etc. À chaque fois, ils vous demandent des informations personnelles : documents d’identité, codes de carte bancaire, etc.

Une des méthodes pour les identifier est toute bête : vérifier l’orthographe, la syntaxe et le phrasé des textes. Souvent, il y a des erreurs qui sautent aux yeux et qui permettent d’éviter de tomber dans le panneau. Mais ChatGPT pourrait aider à rédiger ces faux mails en donnant un air officiel, en les personnalisant, etc. Sur ce sujet, OpenAI ne semble pas mettre de limitation puisqu’on peut tout à fait générer ce type de messages.

ChatGPT peut-il nous remplacer ?

C’est une autre grande question qui taraude tout le monde : ChatGPT peut-il remplacer des métiers ? Si ça peut être le cas dans le journalisme et la rédaction web, qu’en est-il des autres professions ? C’est OpenAI lui-même qui s’est posé la question dans une étude scientifique dont les résultats ont été publiés en mars dernier.

Ces derniers révèlent « qu’environ 80 % de la main-d’œuvre américaine pourrait voir au moins 10 % de ses tâches affectées par l’introduction des LLM, tandis qu’environ 19 % des travailleurs pourraient voir au moins 50 % de leurs tâches affectées. » Au total, « environ 15 % de toutes les tâches des travailleurs aux États-Unis pourraient être accomplies beaucoup plus rapidement au même niveau de qualité. » Les scientifiques qui ont mené cette étude n’avancent néanmoins pas de calendrier d’adoption des IA génératives de texte. Ils augurent quand même que ces modèles de langage « pourraient avoir des implications économiques, sociales et politiques considérables. »

Quant à la banque d’investissement Goldman Sachs, elle pense que « le marché du travail pourrait être fortement perturbé. »

Si dans les faits, les agents d’entretien, ouvriers d’usine ou artisans ne seront pas affectés, pour les professions plus informatisées, comme dans la comptabilité, l’administratif, la communication, les IA comme ChatGPT pourraient avoir un impact. Un impact de productivité : comme l’informatique, l’arrivée d’Internet ou de logiciels spécialisés, ChatGPT pourrait augmenter la productivité de nombre de métiers.

Techniquement, ChatGPT pourrait alors remplacer nombre de métiers. Mais la question du remplacement des humains est autre : faut-il supprimer des postes, certains devenant inutiles, ou réduire le temps de travail de chacun au regard de l’apport de productivité ? Une question davantage sociétale que technique.

Quel est le bilan carbone d’une question posée à ChatGPT ?

Dresser le bilan carbone d’un service informatique est extrêmement compliqué : les facteurs d’émissions de gaz à effets de serre sont multiples et pas forcément faciles à mesurer. Néanmoins, on peut tout de même réaliser des estimations.

Dans une étude d’avril dernier, la société d’étude comptable de carbone Greenly a avancé une estimation de la consommation carbone de ChatGPT, avec GPT-3. Pour cela, Greenly a pris « pour exemple le cas d’une entreprise y ayant recours pour répondre automatiquement à 1 million de mails par mois pendant un an », soit 12 millions de mails. Elle en a conclu que ChatGPT aurait « émis 240 tonnes de CO2e (équivalent CO2, une mesure d’émission de gaz à effets de serre), soit l’équivalent de 136 voyages aller-retour entre Paris et New York. »

Ce qui consommerait le plus avec ChatGPT, c’est bien sûr le fonctionnement électrique des serveurs sur lesquels fonctionne le chatbot. Dans le cas étudié par Greenly, cela représenterait environ 75 % de l’empreinte carbone totale. L’une des solutions pour atténuer (et non réduire) l’impact carbone de ChatGPT, c’est… de l’utiliser autant que l’on peut. En réalité, les tâches d’apprentissage représentent 99 % des émissions carbone : plus on utilise l’outil, moins sa conception aura proportionnellement consommé de l’énergie.

L’exploitation des travailleurs pour l’étiquetage

Ce qui questionne autour de ChatGPT, c’est aussi la manière dont le chatbot a été développé. En janvier dernier, une enquête du Time mettait en cause OpenAI, ou plutôt l’un de ses sous-traitants, pour exploitation de travailleurs. Des Kényans étaient payés moins de deux dollars de l’heure pour rendre l’IA moins toxique.

En fait, ces travailleurs étiquetaient des textes pour savoir s’il fallait les utiliser pour entraîner le modèle de langage. Le problème, c’est que les textes en question pouvaient parler de violences atroces et que certains salariés ont développé des troubles psychologiques sans être suivis. Le tout en étant bien moins payés que ce qui était promis. OpenAI avait reporté la responsabilité sur son sous-traitant suite à la publication de l’enquête.

La valorisation (financière) du travail de ceux qui entraînent les modèles d’intelligence artificielle comme GPT, devient une question de plus en plus prégnante. Tout d’abord parce que l’intelligence artificielle représente une manne financière de plus en plus importante. Ensuite parce que l’entraînement est une étape indispensable dans la création d’une IA. Seulement voilà, une étude récente a montré que les travailleurs indépendants, la plupart du temps sous-payés, peuvent utiliser de l’IA pour réaliser des micro-tâches d’entraînement.

Les intelligences artificielles peuvent-elles entraîner une pénurie de cartes graphiques ?

Pour faire fonctionner ChatGPT et plus généralement toutes les autres intelligences artificielles génératives, il faut de la puissance de calcul et notamment de la puissance GPU, fournie par des cartes graphiques. Après de nombreuses phases de pénuries liées au minage de cryptomonnaies, mais aussi aux pénuries de composants et aux blocages d’usines à cause des restrictions sanitaires, le marché tendait à se rééquilibrer. Mais selon certaines études, les IA génératives pourraient entraîner une énième pénurie de cartes graphiques.

Par exemple, pour entraîner et maintenir ChatGPT, il aurait fallu pas moins de 10 000 pièces provenant de chez Nvidia. S’il n’y a qu’OpenAI qui fait cela, pas de souci et aucun risque de ne pas trouver la carte que l’on souhaite. En revanche, si les modèles et les outils tendent à se multiplier comme c’est le cas en ce moment même, s’approvisionner pourrait être plus complexe. Pourtant, il y a un grand gagnant derrière cette industrie : Nvidia, constructeur historique de cartes graphiques et entreprise très puissante.

Peut-on détecter les textes générés par l’IA ?

À l’heure actuelle, il n’existe aucun moyen très fiable de détecter si un texte a été généré avec une IA comme ChatGPT ou non. Il y a toutefois des méthodes qui permettent de repérer les textes générés :

  • Un champ lexical pauvre
  • Un discours très lisse
  • Des formes de phrases répétitives

Des outils sont tout de même disponibles. Mentionnons celui mis à disposition par OpenAI, suite à de vives critiques sur l’impossibilité de vérifier si un texte avait été généré par ChatGPT. Il s’agit d’AI Text Classifier que vous pouvez tester vous-même. Un outil qui demande au minimum 1000 caractères pour l’analyse. OpenAI reconnaît que ce « classificateur » n’est pas toujours fiable et que du texte généré par AI peut être modifié pour justement échapper à son analyse. Lors du lancement de cet outil, OpenAI écrivait que le « classificateur identifie correctement 26 % des textes écrits par l’IA (vrais positifs) comme étant « probablement écrits par l’IA », tout en étiquetant incorrectement des textes écrits par des humains comme étant écrits par l’IA dans 9 % des cas (faux positifs). » Enfin, il est moins bon sur des écrits rédigés par des enfants ou dans des langues autres que l’anglais.

Dans la pratique, l’AI Text Classifier ne dit pas directement si tel ou tel texte a été généré par une IA : « chaque document est étiqueté comme très improbablement, improbablement, peu clair s’il a été, peut-être ou probablement généré par l’IA. » Effectivement, dans nos tests réalisés, l’outil se trompe parfois.

Faut-il mettre ChatGPT et tous les autres modèles de langage entre toutes les mains ?

En mars, le code source de LLaMA, le modèle de langage de Meta, a fuité. Tout un chacun peut le faire fonctionner en récupérant son code et en ayant une machine suffisamment puissante à disposition. Si on peut considérer que tout un chacun puisse utiliser un modèle de langage sans dépendre d’une entreprise privée est une bonne chose, cela pose aussi quelques dangers potentiels.

Comme évoqué précédemment, ChatGPT et les modèles de langage peuvent servir à des usages malhonnêtes. Pourtant, ils sont limités puisque les entreprises qui les éditent développent des solutions pour contrôler l’utilisation de leur création et modérer ce que les LLM écrivent.

Cependant, ce n’est pas rassurant que seules de grandes entreprises du numérique contrôlent ces IA : on parle de Google, de Microsoft, et désormais de Meta. D’autant plus qu’on ne sait que très peu ce que contiennent ces véritables boîtes noires, ni comment elles fonctionnent. Enfin, il est à préciser que faire fonctionner ces modèles coûte très cher en ressources de calcul et donc en ressources financières : tout le monde ne peut pas utiliser lui-même toute la puissance des LLM.

Le futur de ChatGPT

Après avoir abordé tout ce qui faisait de ChatGPT le chatbot le plus puissant, réfléchissons à ce que sera l’outil demain.

Un abonnement « Business » pour les professionnels

Sur l’une des pages de la FAQ de ChatGPT, OpenAI indique travailler « sur un nouvel abonnement ChatGPT Business pour les professionnels qui ont besoin de plus de contrôle sur leurs données ainsi que pour les entreprises qui cherchent à gérer leurs utilisateurs finaux. »

Le but sera de proposer une offre dans laquelle les données des utilisateurs ne sont pas utilisées par défaut pour entraîner GPT. Aucune date de déploiement n’a été annoncée, si ce n’est que cela arrivera « dans les mois à venir ».

L’intégration de l’IA générative dans les jeux vidéo

Plusieurs autres usages futurs sont expérimentés pour ChatGPT. L’un d’entre eux est l’utilisation de modèles de langage dans les jeux vidéo, pour faire parler des personnages.

Par exemple, un mod pour le jeu Mount and Blade II: Bannerlord a été développé et s’appuie sur ChatGPT afin de discuter de manière naturelle avec les personnages. Certaines limites subsistent dont le temps de réponse, ce qui casse l’immersion dans le jeu.

Quand est-ce que GPT-5 sortira-t-il ?

Après GPT-4, vient logiquement GPT-5. Cependant, cela ne veut pas dire que la prochaine version du modèle de langage derrière ChatGPT est prévue pour maintenant. Le fondateur d’OpenAI Sam Altman a déclaré à plusieurs reprises que son entreprise ne développait pas activement GPT-5. Il reconnaît que son entreprise a des idées derrière la tête, mais rien de concret.

Saml Altman souhaiterait augmenter les exigences en matière de sécurité et a mis en avant la volonté de réaliser des audits et des tests indépendants. OpenAI pourrait également faire le choix de passer par une version intermédiaire de son LLM, avec un GPT-4.5, comme ça a été le cas avec GPT-3.5. Une position stratégique pour la société : ce serait délicat pour OpenAI de foncer sur GPT-5 alors que les critiques à l’encontre des IA génératives se font vives, notamment du point de vue de la sécurité. En plus de tout ça, les législations évoluent et pourraient impacter ChatGPT et son développement.

Quelles régulations pour ChatGPT ?

ChatGPT et plus généralement tous les modèles de langage et les intelligences artificielles génératives sont relativement récents. Par conséquent, leur utilisation et leur développement ne sont pas nécessairement suffisamment encadrés. C’est pourquoi les législations du monde entier sont en train d’évoluer pour prendre en compte ces nouveaux outils. On sait que la FTC américaine et la CMA britanniques, deux autorités pour la concurrence, étudient actuellement les potentielles conséquences de ChatGPT.

Du côté de la France, le ministre de l’Économie Bruno Lemaire s’est dit favorable à une régulation, y compris au niveau européen. Il souhaiterait réglementer la constitution des bases de données sur lesquelles les IA s’entraînent.

Quant à l’Union européenne, elle aussi tente de légiférer par l’AI Act, texte de loi fondateur en passe d’être voté. Pour le moment, les députés du Parlement européen ont trouvé un accord sur la législation à adopter. L’AI Act pourrait être adopté dès cette année. Parmi les conséquences notables pour ChatGPT, son modèle devra être confié à l’Union européenne pour analyse. De plus, tous les contenus générés par le chatbot devront pouvoir être identifiés comme tels et ce dernier devra empêcher la création de contenus illicites. Enfin, l’AI Act a pour ambition de protéger le droit d’auteur : OpenAI devra indiquer à l’UE quelles ont été les données utilisées pour entraîner ChatGPT.

La révolution des assistants vocaux passera-t-elle par les grands modèles de langage ?

Ce que ChatGPT pourrait révolutionner, ce sont les assistants vocaux. Au sein de notre communauté de lecteurs, vous êtes un quart à utiliser un assistant vocal quotidiennement et environ la moitié à ne jamais en utiliser. L’utopie d’un assistant personnel intelligent vendu il y a quelques années n’est plus : aujourd’hui, les mises à jour de Siri se font rares, Google Assistant n’a pas changé depuis longtemps, Alexa serait moqué en interne et Bixby est dans une boîte de Schrödinger. Le trait est quelque peu extrême, mais l’idée est que les assistants vocaux sont encore loin de remplir leur promesse.

Source : Rolf van Root sur Unsplash

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mon panier
0
Code promotionel
total

 
Messenger messenger