ChatGPT
ChatGPT
Chronologie des versions ChatGPT est un agent conversationnel (chatbot) développé par OpenAI. Il utilise des grands modèles de langage appelés transformeurs génératifs préentraînés (Generative Pretrained Transformers en anglais, ou GPT), comme GPT-4o ou o1, pour générer du texte. ChatGPT est capable de répondre à des questions, de tenir des conversations, de générer du code informatique, et d'écrire, traduire ou synthétiser des textes. Il peut le faire en tenant compte du contexte et de contraintes telles que le style d'écriture. Les abonnements payants (ChatGPT « Plus », « Team » et « Enterprise ») offrent un seuil d'utilisation de GPT-4o plus élevé, ainsi que des fonctionnalités supplémentaires comme la génération d'images avec DALL-E 3[1]. En raison de ses multiples capacités, ChatGPT suscite des inquiétudes quant aux risques de détournement à des fins malveillantes, de plagiat dans le monde universitaire et de suppressions d'emplois dans certains secteurs, en plus de soulever des préoccupations en matière de sécurité et de désinformation, car le modèle peut être utilisé pour créer des textes faux et des informations trompeuses. ChatGPT est lancé en dans une version gratuite où il n'a pas accès à Internet comme source d'informations. Il bénéficie aussitôt d’une large exposition médiatique et reçoit un accueil globalement positif, bien que son exactitude factuelle soit critiquée. En , ChatGPT compte plus de 100 millions de comptes enregistrés, et la société OpenAI est alors valorisée à 29 milliards de dollars américains[2]. NomLe sigle ChatGPT est un mot-valise composé des mots anglais « chat » et « GPT »[3]. Le mot « chat » désigne un dialogue en ligne dans lequel les internautes échangent des messages de manière instantanée. La particularité de ChatGPT est de permettre à un internaute de discuter non pas avec d'autres internautes mais avec un système basé sur une intelligence artificielle[4]. Le mot « GPT » est un sigle signifiant « Generative Pre-trained Transformer » (« transformeur génératif préentraîné »)[4], le mot transformeur désignant une architecture d'apprentissage profond développée par Google[5]. CaractéristiquesChatGPT est un agent conversationnel à intelligence artificielle ou « chatbot », autrement dit un assistant virtuel qui utilise l'intelligence artificielle pour dialoguer avec ses utilisateurs[6]. Lors de son lancement, ChatGPT était basé sur GPT-3.5. En mars 2023, OpenAI a introduit GPT-4, qui est plus lent mais nettement plus performant, et qui a par la suite été rendu disponible aux utilisateurs de ChatGPT ayant souscrit à un abonnement payant[7]. En mai 2024, OpenAI a sorti GPT-4o, qui est moins cher et plus performant que GPT-4, disponible gratuitement, et qui peut traiter et générer non seulement du texte, mais également du son et des images[8]. En juillet 2024, OpenAI a sorti GPT-4o mini, une version plus rapide de GPT-4o, et qui a remplacé GPT-3.5 sur l'interface de ChatGPT[9]. OpenAI a ensuite déployé o1, un modèle qui prend plus de temps pour réfléchir avant de générer une réponse, offrant ainsi de meilleures performances pour les tâches nécessitant des raisonnements complexes, notamment en sciences et en programmation[10]. Le robot conversationnel est disponible dans de multiples langues, dont le français, et offre des performances variables selon la langue[11],[12]. Il se souvient des messages précédents qui lui sont donnés par l'utilisateur au cours d'une même conversation[13]. Il est capable de répondre à des questions-tests dans un langage très proche de celui d'un humain, voire, selon la question, avec un niveau de performance supérieur à un répondant humain moyen[14],[15]. Il dispose également de capacités génératives permettant de produire du contenu textuel sur mesure. Le robot peut notamment générer des articles, essais ou poèmes sur différents tons et sujets[16]. Il est également utilisé pour produire et corriger du code informatique[17]. L'accès à ChatGPT est gratuit, mais nécessite de créer un compte sur le site web d'OpenAI[18]. Les utilisateurs contribuent à entraîner le robot par leurs requêtes et leur évaluation des réponses[19]. L'application mobile ChatGPT, lancée en mai 2023 sur iOS[20] et ensuite sur Android[21], intègre une technologie de reconnaissance vocale nommée Whisper qui permet de converser par la voix avec le robot[22]. ChatGPT a été entraîné de façon à réduire le taux de réponses fausses ou nocives. Par ailleurs, un filtrage est effectué par une API de modération, les sujets classifiés par exemple comme racistes, sexuels ou sexistes étant rejetés[23],[13]. De nombreux auteurs cherchent à comparer ChatGPT de manière anthropocentrée, c'est-à-dire par rapport à ce que pourrait faire un humain moyen dans un large éventail de domaines. Bubeck et al en 2023 lui prêtent des « étincelles d’IAG » et dans American Scientific Roivainen (2023) a estimé son équivalent QI verbal à 155, ce qui le placerait dans le top 0,1 % des candidats humains[24]. ModèlesL'utilisateur a le choix entre différents modèles que ChatGPT peut utiliser pour générer du texte.
FonctionnementChatGPT intègre les transformeurs génératifs pré-entraînés GPT-4, GPT-4o et GPT-4o mini dans un format conversationnel. Le « pré-entraînement » de ces modèles consiste à prédire, étant donnée une partie d'un texte, le token suivant (un token étant un morceau de texte, typiquement un mot, une partie d'un mot, ou de la ponctuation[29]). Cet entraînement à prédire ce qui va suivre, répété pour un grand nombre de textes, permet à ces modèles d'accumuler des connaissances. Ils peuvent ensuite générer du texte semblable à celui ayant servi au pré-entraînement, en prédisant un à un les tokens suivants[30],[31]. Dans le cas de GPT-4 Vision, l'entraînement a aussi été effectué sur des images, rendant le modèle capable d'analyser des images[32]. Pour la seconde phase d'apprentissage, des humains ont rédigé des requêtes, et les réponses correspondantes attendues. ChatGPT est entraîné à fournir des réponses similaires, ce qui le pousse à adopter un format conversationnel où il joue un rôle d'assistant[23]. Une troisième phase d'apprentissage utilise une technique d'apprentissage par renforcement appelée RLHF pour rendre le modèle plus véridique, utile et inoffensif. Un « modèle de récompense » a d'abord été entraîné à reconnaître les réponses que les humains approuvent ou non. ChatGPT a ensuite été entraîné à fournir des réponses qui satisfassent ce modèle représentant les préférences humaines[31],[23]. Après déploiement, ChatGPT continue d'être régulièrement entraîné, notamment à partir de la façon dont les utilisateurs jugent les réponses (pouces vers le haut ou vers le bas)[33]. Lorsque ChatGPT répond à un utilisateur, le texte de la conversation jusque-là est d'abord découpé en tokens, et chaque token est converti en vecteur qui en encode le sens[34] et la position dans le texte. À l'intérieur d'un transformeur comme GPT-4o se trouve une succession de couches d'attention et de courts réseaux de neurones. Les couches d'attention combinent les concepts entre eux, permettant de tenir compte du contexte et de relations complexes[35]. En sortie, le transformeur attribue un score à chaque token possible, et un token est sélectionné de façon partiellement aléatoire parmi ceux ayant le plus haut score. ChatGPT génère ainsi les tokens un à un, jusqu'à générer un token spécial indiquant la fin de la réponse[36]. LimitesChatGPT présente encore certaines limites :
UtilisationLe , le PDG d'OpenAI Sam Altman indique que le prototype, qui est alors gratuit, a atteint un million d'utilisateurs[45]. En , ChatGPT dépasse les 100 millions de comptes enregistrés, deux mois après son lancement, et en mars enregistre 1,6 milliard de visites[46], ce qui en fait l'application ayant eu la croissance la plus rapide alors[47]. Selon François Fleuret (professeur de l'université de Genève) le profil des premiers utilisateurs est assez varié : étudiants, enseignants, développeurs ayant besoin de bouts de code d'un programme informatique ou encore de professionnels souhaitant avoir des propositions de texte dans le cadre de la rédaction de mails à caractère sensible[48]. La version ChatGPT 4 permet la recherche en ligne, grâce à une intégration dans Bing. Cette fonctionnalité est désactivée le en raison de droits d'auteurs car elle permettait d'afficher l'intégralité de certaine pages web protégées par un paywall[49], puis réactivée fin dans la version payante, qui tient compte des interdictions de lecture inscrites dans le fichier d'exclusion Dans les mois qui ont suivi la sortie de ChatGPT la littérature scientifique a analysé de nombreux nouveaux cas d'usage. Certains peuvent poser des « questions d'éthique, de droit d’auteur, juridiques et de transparence, de risque de partialité, de plagiat, de manque d’originalité, de contenu inexact avec risque d’hallucination[51], » de connaissances limitées, de citations incorrectes, de problèmes de cybersécurité et d’infodémie [52]. Les domaines concernés sont aussi divers que l'éducation et la formation[53], la santé publique[54], le secteur médical[55], la finance et le commerce[56], le marketing[57], le droit[58], l'écriture créative[59], le codage[60] ou encore la recherche scientifique et la rédaction scientifique[61]. La sortie de GPT-4o, qui est nettement plus performant, pourrait encore renforcer son adoption. L'utilisation intensive et indiscriminée des modèles de langage comme ChatGPT a suscité des inquiétudes quant à ses effets potentiels sur les capacités cognitives des utilisateurs. Dans son ouvrage « 2050, Crash ou Renaissance ? Vers une société « boule de gui » »[62] (2022), Dimitri Carbonnelle introduit le concept de « diabète intellectuel ». Cette métaphore établit un parallèle entre la consommation excessive de sucre et l'utilisation non modérée de l'intelligence artificielle, suggérant que cette dernière pourrait conduire à une forme d'apathie intellectuelle[63]. Intégration dans des solutions MicrosoftMicrosoft entretient un partenariat étroit avec OpenAI, ayant investi près de 13 milliards de dollars dans OpenAI[64] (et possédant ainsi 49% du capital de l'entreprise[65]). OpenAI a accordé à Microsoft l'exclusivité de l'exploitation commerciale dans le cloud de ses modèles d'IA générative comme GPT-4[64]. Microsoft BingAprès une phase de test réservée à un nombre restreint d'utilisateurs, l'agent conversationnel de Bing appelé « Microsoft Copilot » (initialement « Bing Chat ») et reposant sur GPT-4 devient en mai 2023 accessible à tous[66]. Ce dernier peut fournir des liens vers des sources qu'il a utilisées pour produire sa réponse. Il est présent dans les deux interfaces de la nouvelle version de Bing :
L'objectif pour Microsoft serait ainsi de permettre à son moteur de recherche Microsoft Bing de concurrencer Google, qui détient plus de 90 % des parts du marché mondial en 2023[68]. Microsoft EdgeChatGPT a également été intégré dans le navigateur Web Microsoft Edge, lui permettant de commenter des fichiers PDF, de les résumer, d’ajouter des informations à partir du Web ou encore de les traduire[69]. Microsoft OfficeMicrosoft a aussi intégré GPT-4 en 2023 dans une solution appelée « Microsoft 365 Copilot », qui est utilisée dans Microsoft Word, Excel, Outlook et Teams et PowerPoint[70],[71]. Dans Microsoft Word, cela peut permettre de rédiger, modifier ou résumer des textes, et de créer des images ou des graphiques. Les cas d'usages incluent aussi la création de compte-rendus de réunions, la synthèse de documents, ou l'aide à la rédaction d'emails[70]. Modèle économiqueLa version de ChatGPT reposant sur le modèle de langage GPT-3.5 est gratuite[72] et sans publicité. GPT-4 est payant, mais moins récent, moins performant et moins rapide que GPT-4o, qui lui est gratuit mais avec un seuil d'utilisation[1]. Les abonnements payants donnent accès à des fonctionnalités supplémentaires comme la génération d'images avec DALL-E 3, l'analyse de données, la navigation sur internet, ainsi qu'une forme de mémoire persistante des conversations précédentes. Ils offrent aussi un seuil d'utilisation plus élevé de GPT-4o[1]. Coûts d'exploitationBien que le coût moyen de chaque réponse soit relativement faible (de l'ordre de quelques centimes), Sam Altman, le PDG d'OpenAI, déclare en qu'OpenAI devra un jour monétiser l'application en raison de ses coûts de calcul « exorbitants »[45]. Bien qu'aucun chiffre précis n'ait été communiqué par la société, le professeur en apprentissage profond Tom Goldstein estime que les coûts d'utilisation de l'IA s'élèvent à environ 100 000 $ US par jour, soit près de trois millions de dollars par mois[73]. Consommation énergétiqueComme toute IA destinée aux masses, sa consommation énergétique est inconnue, OpenAI ne communiquant pas véritablement sur ces sujets[74]. Des tentatives d'estimation des consommations de l'entrainement seul (hors consommation électrique et empreinte carbone liés aux interrogations quotidiennes des millions d'utilisateurs) de GPT-3 les évaluent à environ 1 287 MWh[75] (l'équivalent de 120 maisons pendant une année) pour un bilan carbone de 552 tonnes de CO2 (soit l'équivalent de 110 voitures en une année). Abonnements payantsAfin de financer les coûts d'exploitation de ChatGPT, OpenAI propose depuis le 1er février 2023 un abonnement payant ChatGPT Plus. Celui-ci coûte 20 dollars des États-Unis par mois, plus les taxes applicables. Cet abonnement permet d’utiliser le modèle de langage GPT-4, offre un accès continu à ChatGPT (y compris lorsque les serveurs sont surchargés), et permet d'obtenir des réponses plus rapides qu'avec la version gratuite[76]. Avec cet abonnement, le nombre de requêtes à GPT-4 est limité à 50 toutes les trois heures[77]. Les abonnés disposent également d'un accès prioritaire aux nouvelles fonctionnalités et améliorations de ChatGPT[78]. D’abord lancé aux États-Unis, ChatGPT Plus est rendu disponible le [79] aux utilisateurs issus d'autres régions du monde[73],[80]. En mars 2023, ChatGPT est devenu disponible via une interface de programmation destinée en particulier aux développeurs informatiques pour des requêtes automatisées. D'autres versions de GPT-3.5 y étaient déjà disponibles, mais étaient dix fois plus chères[81]. En , OpenAI ajoute la prise en charge des greffons pour ChatGPT Plus[82]. Cela inclut à la fois les greffons créés par OpenAI, tels que la navigation sur le web et l'interprétation de code, ainsi que des greffons externes provenant de développeurs tels que Expedia, OpenTable, Zapier, Shopify, Slack, et Wolfram[83],[84]. En juillet 2023, OpenAI crée un greffon nommé « Code interpreter » accessible aux utilisateurs de ChatGPT Plus. L'interpréteur fournit diverses capacités supplémentaires, dont l'analyse, le nettoyage et la visualisation de données, l'analyse de musiques et la création de clips animés[85]. En août 2023, OpenAI annonce la sortie de « ChatGPT Enterprise », un abonnement à ChatGPT pour les entreprises qui offre plus de sécurité des données, ainsi que des capacités d'administration et de personnalisation des connaissances de ChatGPT. La génération de texte avec GPT-4 via cet abonnement est décrite comme plus rapide, illimitée, et avec une fenêtre de contexte plus grande[86]. En septembre 2023, OpenAI annonce que ChatGPT « peut maintenant voir, entendre et parler ». Les utilisateurs de ChatGPT Plus peuvent télécharger des images, et les utilisateurs de l'application mobile peuvent parler avec ChatGPT[87],[88]. En octobre 2023, le dernier modèle de génération d'images DALL-E 3 a été intégré à ChatGPT Plus et ChatGPT Entreprise. À partir de la requête de l'utilisateur, ChatGPT crée une description de l'image souhaitée qui est envoyée à DALL-E 3 pour la génération de l'image[89]. En novembre 2023, OpenAI lance GPT-4 Turbo, qui a notamment une fenêtre de contexte bien plus grande[90]. En mai 2024, OpenAI annonce GPT-4o, un modèle capable d'analyser du texte, du son et des images, et de générer en temps réel du texte, du son et des images. GPT-4o est également deux fois plus rapide et deux fois moins cher que GPT-4 Turbo. Le modèle est gratuit, mais les abonnés ont une limite d'utilisation plus élevée, notamment 5 fois plus élevée avec l'abonnement ChatGPT Plus[91]. En septembre 2024, OpenAI annonce que ChatGPT a 11 millions d'utilisateurs mensuels payants[92], générant environ 225 millions de dollars de chiffre d'affaires mensuel pour OpenAI. En décembre 2024, OpenAI sort un abonnement ChatGPT pro à 200$ par mois qui inclut un accès illimité à o1 et au mode vocal avancé. Le plan comprend également une version pro de o1 qui utilise davantage de ressources informatiques pour fournir de meilleures réponses[93]. GPT StoreEn janvier 2024, OpenAI lance le « GPT Store », qui permet de créer et de partager des agents conversationnels personnalisés[94],[95]. La société prévoyait initialement de lancer le magasin en novembre 2023, mais cela a été retardé[96]. Au lancement, le GPT Store propose plus de 3 millions de chatbots personnalisés[97]. Les chatbots disponibles via le magasin sont développés en utilisant le système GPT Builder d'OpenAI[96]. Le développement de chatbots sur la plateforme ne nécessite pas de compétences en programmation[98]. Deux jours après son lancement, le GPT Store offre de nombreuses versions de bots de type "petite amie virtuelle", ce qui est contraire aux conditions d'utilisation d'OpenAI[99]. Autres sources de financementPour l'expert en marketing numérique Tim Peter, le financement de ChatGPT pourrait par ailleurs venir du partenariat entre OpenAI et Microsoft. En effet, contrairement à Google qui tire ses revenus essentiellement de la publicité, Microsoft pourrait subventionner ChatGPT grâce à ses autres activités comme la vente de matériel et de logiciels[100]. RéceptionLors de son lancement le [101], ChatGPT est accueilli de manière globalement positive. Ses réponses articulées et sa capacité à traduire des textes sont particulièrement remarquées[19]. La journaliste Samantha Lock du Guardian note ainsi que le prototype est capable de rédiger des textes « remarquablement détaillés » et « semblables à ceux d'un être humain »[102]. Son confrère Benjamin Hue de RTL loue sa capacité à rédiger un texte sur « tous les sujets possibles et imaginables », qu'il s'agisse d'une recette de cuisine, d'une dissertation, d'une lettre de motivation ou encore d'inventer une histoire pour enfants. Il note également que ChatGPT est capable de répondre à des demandes plus pointues comme le débogage de code informatique[103]. James Vincent, de The Verge, voit dans le succès viral de ChatGPT la preuve que l'intelligence artificielle est devenue incontournable[104]. De son côté, Alex Kantrowitz, de Slate, salue la manière dont ChatGPT réagit aux questions relatives à l'Allemagne nazie, notamment l'affirmation selon laquelle Adolf Hitler a construit des autoroutes en Allemagne, ce qui a engendré des informations sur l'utilisation du travail forcé par l'Allemagne nazie[105]. Dans un article d'opinion de , l'économiste Paul Krugman estime que ChatGPT aura un impact sur la demande de travailleurs de la connaissance[106]. Dan Gillmor, journaliste spécialiste des nouvelles technologies, a testé ChatGPT dans le cadre d'un travail d'étudiant, jugeant le texte produit comparable à celui d'un bon étudiant. Il en déduit que « le monde universitaire a de très sérieux problèmes à affronter »[107]. Cette position est partagée par Jonathan Durand Folco qui montre, à la suite d'une lettre d'opinion de 600 mots rédigée par cet outil, que « l'ensemble des écoles primaires et secondaires, des cégep et des communautés universitaires » est appelé à modifier en profondeur ses outils d'évaluation[108]. Daniel Herman, professeur de lycée et auteur californien, écrit que ChatGPT marquera la « fin de l'anglais au lycée »[109]. Erreurs factuellesL'exactitude de certaines réponses de ChatGPT a cependant été remise en question[19]. ChatGPT peut inventer des réponses et citer de fausses sources, un phénomène connu sous le terme d’hallucination[110]. L'analyste des données Teresa Kubacka, qui a testé ChatGPT 3.5 en décembre 2022 sur le multiferroïsme, indique que ce dernier lui a fourni de fausses citations de chercheurs, qui semblaient « avoir été assemblées comme un mélange à partir de quelques citations réelles, différentes mais similaires[4] ». Selon elle, il est également possible de tromper l'IA en inventant des concepts imaginaires : « J'ai décidé de demander à ChatGPT quelque chose qui n'existait pas : un électromagnon inversé cycloïdal. […] Et bien le chatbot l'a inventé, assurant même que la question a fait l'objet de nombreuses recherches ces dernières années[4]. » Les résultats de ChatGPT varient en fonction du sujet. ChatGPT-4 s'est montré capable d'obtenir le diplôme de médecin aux États-Unis[111]. Mais, testé sur d'anciens examens du Barreau du Québec, il a obtenu un score de seulement 12%[112]. Sam Altman, le PDG d'OpenAI, admet que l'application fait encore des erreurs sur des sujets importants et que les retours des utilisateurs sont nécessaires pour corriger ces erreurs[113]. ChatGPT peut répondre dans de nombreuses langues, mais fonctionne le mieux en anglais, car principalement formé sur un corpus anglophone (dont la Wikipédia anglophone)[114]. InterdictionsÉtats-UnisEn , les services de la ville de New York interdisent l'accès à ChatGPT sur les postes informatiques des écoles publiques de la ville. Une porte-parole de la ville de New York justifie cette décision en raison de « préoccupations concernant la sécurité et l'exactitude du contenu »[115]. FranceEn , Sciences Po Paris annonce interdire l'usage de l'outil à ses étudiants sous peine d'exclusion, puis change de position en autorisant ChatGPT tant qu'il figure dans les sources des travaux produits[116]. À Montpellier, la municipalité a décidé d'interdire à ses employés l'utilisation de ChatGPT au travail par mesure de précaution et en attendant que plus d'études soient faites sur l'intelligence artificielle. Une inquiétude concernant le traitement des données a notamment motivé cette décision[117]. ItalieFin , l'autorité italienne de protection des données personnelles (GDPD (it)) demande à OpenAI de ne plus traiter les données des italiens. Motivée par « l’absence d’une note d’information aux utilisateurs dont les données sont récoltées », elle ne considère pas comme justifiés « le recueil et la conservation en masse des données personnelles, dans le but d’entraîner les algorithmes faisant fonctionner la plateforme ». Elle lui reproche également de ne pas respecter le Règlement général sur la protection des données européen (RGPD) concernant la collecte des informations et l’accuse de ne pas demander l'âge des utilisateurs de ChatGPT. L'entreprise affirme en effet dans sa FAQ récolter notamment les noms, coordonnées, lieux de résidence et informations de cartes de paiement de ses utilisateurs[118]. Le [118],[119], ChatGPT est interdit sur le territoire italien et l'autorité italienne de protection des données personnelles donne à OpenAI un délai de 20 jours pour se mettre en conformité avec le RGPD, faute de quoi elle s'expose à une amende de 40 millions d'euros ou de 4 % du chiffre d'affaires de l'entreprise[119]. C'est la première interdiction de l'intelligence artificielle par un pays européen. Cette interdiction est levée le après qu'OpenAI a rendu certaines informations plus visibles sur la version de son engin disponible en Italie[120]. AutresEn , le site Web de questions-réponses Stack Overflow interdit l'utilisation de ChatGPT pour apporter des réponses à des questions, en raison de la nature ambiguë des réponses de ChatGPT[121]. Filtrage et conditions de travail d'employésUne enquête de l’hebdomadaire Time publiée le dévoile qu’OpenAI alimente son IA ChatGPT d’exemples signalés de discours haineux et de violences sexuelles, afin qu’elle sache détecter ces formes de toxicité et ne les laisse pas passer[122]. Pour ce faire, OpenAI a fait appel à Sama (en), une entreprise qui a son siège à San Francisco mais qui emploie des travailleurs au Kenya. Ceux ci ont dû lire des textes pouvant être sexistes ou racistes, et décrivant parfois des automutilations, incestes ou contenus pédopornographiques. Le but était de les classer selon leur type (racisme, violence, etc.) pour pouvoir ensuite entraîner une IA à les repérer. Sur une journée de neuf heures, les travailleurs ont ainsi dû lire entre 150 et 250 textes faisant chacun de 100 à 1 000 mots, et y signaler les passages sensibles, et n'étaient pour cela payés par Sama qu'entre 1,32 et 2 dollars de l’heure[123]. Usages et détournements malveillantsChatGPT a, dès son lancement, suscité des craintes puis des confirmations de détournement possible à des fins malveillantes. ChatGPT pourrait aider à créer des quantités de messages manipulateurs ou perturbateurs et à amplifier le phénomène des « usines à troll », ainsi que l'action de lobbyistes ou d'entités industrielles ou politico-financières malveillantes. Cela a conduit l'économiste Tyler Cowen à alerter en sur de possibles effets délétères pour la démocratie, citant comme exemple la capacité d'une personne à écrire des commentaires automatisés dans le but d'influencer le processus de décision de nouvelles réglementations[124]. Le modèle préoccupe par sa capacité à générer des textes potentiellement dangereux, comme des discours de haine ou des théories du complot[125]. L'entreprise NewsGuard, spécialisée dans la lutte contre les fausses informations, a testé sur 100 requêtes la capacité de ChatGPT à générer de la désinformation lorsqu'il est incité par l'utilisateur à le faire. Les requêtes couvraient des sujets tels que la Covid-19 ou le conflit en Ukraine. Newsguard indique que, dans 80 % des cas avec ChatGPT 3.5 et dans 100% des cas avec ChatGPT 4, le chatbot se prête à exercice, fournissant des narrations trompeuses et éloquentes[126]. Le chercheur en sécurité Ax Sharma de Bleeping Computer note fin 2022 que ChatGPT peut écrire des logiciels malveillants et des courriers électroniques d'hameçonnage[127]. Autre chercheur en sécurité, Aaron Mulgrew de Forcepoint montre en qu'il est possible de tromper la vigilance de ChatGPT et de le forcer, grâce à quelques astuces, à générer un malware indétectable destiné à exfiltrer des fichiers Word ou PDF sous forme d'images en utilisant la stéganographie[128]. En , ces inquiétudes sont confirmées dans un billet de blog par Check Point Research, une société spécialisée dans la cybersécurité : ChatGPT est déjà utilisé par des cybercriminels pour concevoir des logiciels malveillants[129]. L'historique des discussions d'un forum fréquenté par les cybercriminels semble montrer que des pirates ont créé, grâce au bot de ChatGPT, un logiciel capable de voler certains types de fichiers sur une machine sous Windows, ainsi qu'un logiciel capable de produire de faux contenus (e-books, formations, etc.) sur le Web[130]. Problèmes de droit d'auteurManquement au droit d'auteurPlusieurs chercheurs émettent des réserves quant aux manquements au droit d'auteur, car l'IA de ChatGPT a été entraînée en utilisant un très grand nombre de textes en ligne[34],[131] (dont le corpus de Wikipédia)[19], précise Laure Soulier (maîtresse de conférences à Sorbonne Université au sein de l'équipe Machine Learning and Information Access). Or, Wikipédia est réutilisable et modifiable par tous, mais à condition que le produit final cite Wikipédia comme source placée sous licence ouverte de type CC-BY-SA. Pour Thierry Poibeau, directeur de recherche au CNRS, les créateurs de l'IA « ont indexé tout ce qui était disponible sur le Web jusqu'en 2021. Même s'il y a des copyrights, ils s'assoient dessus »[34]. Pour le mathématicien et vidéaste Web français Lê Nguyên Hoang, il est probable qu'une grande partie du contenu utilisé pour générer des discussions vienne des réseaux sociaux. « Ça vient très probablement des réseaux sociaux LinkedIn, GitHub, Reddit, Twitter, où les données sont facilement téléchargeables », explique-t-il[34]. Pour la journaliste Alexandra Tauziac du journal Sud-Ouest, le fait que ChatGPT ait été entraîné avec des sources probablement soumises aux droits d’auteur, sans que ces dernières soient mentionnées dans les réponses du robot, risque en tout cas de poser un problème juridique[131]. En mars 2024, une recherche menée par Patronus AI comparant les performances des LLM (dont GPT) sur un test de 100 questions leur demandait de compléter des phrases tirées de livres soumis à des droits d'auteur aux États-Unis ; l’étude montre que GPT-4, et d’autres outils d’IA générative ne refusent pas de le faire, GPT-4 a fourni des phrases correspondant mot pour mot au livre dans 44 % des cas, ce qui pose des problèmes de respect des droits d’auteurs[132]. L’utilisation de textes protégés par le droit d'auteur a rapidement fait l'objet de procès. OpenAI estime pour sa part que les données soumises au droit d'auteur sont essentielles à l'entraînement d'une IA comme ChatGPT, et invoque aux États-Unis la notion de Fair use pour justifier cette utilisation[133]. Bénéfice du droit d'auteur sur les œuvres produitesEn principe, pour pouvoir bénéficier du droit d'auteur aux États-Unis ou en Europe, il faut pouvoir montrer que l'humain a participé de manière créative[134]. Le droit d'auteurs ne s'appliquent qu'aux humains, et ChatGPT ne peut donc pas en être le bénéficiaire. Une œuvre purement générée par ChatGPT (ou une image générée par DALL-E 3) n'est en général pas protégée par le droit d'auteur et est donc dans le domaine public (du moins si elle ne plagie pas une œuvre existante protégée par le droit d'auteur). Aux États-Unis, la requête de l'utilisateur à elle seule ne semble pas pouvoir justifier un droit d'auteur de l'utilisateur sur les réponses de ChatGPT[134]. Globalement, les législations relatives au droit d'auteur sur les contenus générés par l'IA sont susceptibles d'évoluer[135],[136]. Dans l'enseignementChatGPT inquiète de nombreux enseignants car il est capable d'effectuer convenablement de nombreux exercices demandés aux élèves et aux étudiants, qui peuvent l'utiliser pour rédiger les devoirs à leur place. En effet, s'il est possible pour les professeurs d'identifier dans les devoirs les contenus copiés-collés à partir d'Internet, le nouveau type de plagiat issu de ChatGPT est plus difficilement détectable car le contenu fourni diffère d'un utilisateur à l'autre[137],[138]. À Lyon, 50 % des élèves d'un cours de faculté auraient ainsi utilisé l'intelligence artificielle pour rédiger leur devoir. N'ayant pas de cadre pour interdire cette pratique, l'enseignant s'est vu contraint d'attribuer la moyenne à toutes ces copies[139],[140]. Pour résoudre ce problème et aider les enseignants à identifier les plagiats, sans ralentir le développement de sa technologie, OpenAI a annoncé, en , travailler à l'apposition d'une signature (watermark) sur les contenus générés par son IA afin qu'ils soient identifiables par les enseignants. Néanmoins, cette méthode pourrait être facile à contourner, selon Srini Devadas, professeur en sciences de l'informatique au MIT[137],[141],[142]. En outre, les outils permettant de détecter l'utilisation d'outil de génération de texte, comme GPTZero, donnent des résultats mitigés[143]. En facilitant la tricherie, ChatGPT suscite des interrogations sur la pertinence des devoirs non surveillés et des évaluations en ligne. Certains professeurs suggèrent de confronter les énoncés au robot avant de les communiquer aux élèves pour s'assurer que ChatGPT ne soit pas capable de les traiter correctement et ainsi obliger les élèves à réfléchir par eux-mêmes[144]. Par ailleurs, certains enseignants utilisent eux-mêmes l'outil pour concevoir des exercices, notamment des QCM. Une poignée d'entre eux l'utilise également en classe, afin d'apprendre aux élèves à l'utiliser judicieusement et à cerner ses limites[145]. Dans un article d'opinion de , l'essayiste Vincent Cespedes voit justement en ChatGPT une chance de révolutionner l'École, « à condition d’apprendre à s’en servir correctement, c’est-à-dire en créant au lieu de copier-coller, en tâtonnant au lieu d’ânonner, en expérimentant au lieu de consommer »[146]. Risques de suppression d'emploisEn , l'économiste Daniel Susskind (auteur de Un Monde sans travail), invité par France Culture, note que ChatGPT « prend en charge des tâches que l'on pensait réservées aux humains » notamment des « tâches qui nécessitent de la créativité, ou du jugement […] Il faut le voir comme faisant partie d'une tendance beaucoup plus importante : la technologie prend en charge de plus en plus de tâches que nous pensions réservées aux humains[19]. ChatGPT n'en est qu'un exemple. » Selon lui, jusqu'alors les progrès technologiques qui ont supprimé des emplois en ont créé d'autres, mais « cette fois-ci, les choses peuvent être différentes : nos systèmes et nos machines deviennent incroyablement capables, prennent des tâches et activités que nous ne pensions possibles que par des esprits humains experts. [Au point] de raréfier considérablement le travail »[19]. En février 2023, les créateurs de ChatGPT publient une liste de 34 métiers, principalement manuels, qui ne possèdent pas de composantes à ce jour susceptibles d'être remplacées par l’IA (non reliée à un robot)[147],[148]. Sur les marchés financiersLa société de technologie d'IA c3.ai a vu le cours de son action augmenter de 28 % après avoir annoncé l'intégration de ChatGPT dans sa boîte à outils[149]. Le cours de l'action de Buzzfeed, une société de médias numériques sans rapport avec l'IA, a augmenté de 120 % après avoir annoncé l'adoption de la technologie OpenAI pour la création de contenu[150]. Reuters a constaté que les prix des actions des entreprises liées à l'IA BigBear.ai et SoundHound AI ont augmenté respectivement de 21 % et 40 %, même si elles n'avaient pas de lien direct avec ChatGPT[151]. Ils ont attribué cette montée en puissance au rôle de ChatGPT dans la mode de l'intelligence artificielle à Wall Street. Une recherche universitaire publiée dans Finance Research Letters a révélé que l' « effet ChatGPT » a incité les investisseurs particuliers à faire grimper les prix des actifs de crypto-monnaies liées à l'IA malgré le fait que le marché plus large des crypto-monnaies soit à la baisse, et que l'intérêt des investisseurs institutionnels ait diminué[152]. Cela confirme les conclusions anecdotiques de Bloomberg selon lesquelles, en réponse au lancement de ChatGPT, les investisseurs en crypto-monnaies ont montré une préférence pour les crypto-actifs liés à l'IA[153]. Une expérience menée par finder.com a révélé que ChatGPT pouvait surpasser les gestionnaires de fonds populaires en sélectionnant des actions sur la base de critères tels que l'historique de croissance et les niveaux d'endettement, ce qui a entraîné une augmentation de 4,9 % d'un compte hypothétique de 38 actions, surpassant 10 fonds d'investissement de référence avec une perte moyenne de 0.8 %[154]. Confiance dans cette IAAu regard des Lignes directrices en matière d'éthique pour une IA digne de confiance de la Commission européenne[155], ChatGPT déroge à beaucoup des 23 critères caractérisant une IA digne de confiance. ChatGPT peut par exemple manquer de précision et de fiabilité, voire désinformer ou affabuler[156]. L'utilisation de ChatGPT peut représenter un risque de fuite de données. Par défaut, les données partagées avec ChatGPT peuvent en effet être utilisées plus tard pour son entraînement, et peuvent donc ainsi être compromises si ce sont des données sensibles (sauf avec la version ChatGPT Enterprise, ou si l'historique des conversations est désactivé)[157]. Par ailleurs, en mars 2023, un bogue informatique lié au site internet avait valu pendant plusieurs heures à des données personnelles d'utilisateurs d'être exposées à d'autres utilisateurs[158]. Il est aussi arrivé que de faux sites ou logiciels malveillants imitent ChatGPT afin de voler les données de connexion des utilisateurs[159]. Les réponses de ChatGPT sont conçues pour être partiellement aléatoires afin d'être plus créatives[160], ce qui peut poser un problème de reproductibilité. En novembre 2023, OpenAI annonce ajouter un paramètre seed (« graîne ») à son API, permettant aux développeurs informatiques de fixer la valeur de cet aléa et d'ainsi obtenir des résultats reproductibles[161]. Le manque de traçabilité comme de citation de ses sources renforce ses prédispositions à l'inexplicabilité, ce qui nuit à sa transparence[réf. souhaitée]. Il ne respecte pas l'accès aux données privées ni n'en assure l'intégrité et n'est donc pas conforme au RGPD (cf. #Problèmes de droit d'auteur)[162]. Enfin, le risque d'accoutumance, de confusion, d'attachement, de manipulation et donc d'atteinte possible à l'autonomie de ses utilisateurs est souligné[source insuffisante], à l'instar de la fiction Her, des expériences amoureuses vécues par des utilisateurs de Replika (en)[163], construit sur GPT-3, ou de cérémonies funéraires organisées par les possesseurs de chiens robots Sony Aibo[164]. BiaisLes mesures prises par OpenAI afin de vérifier en continu la qualité de ses résultats ne sont pas établies. Même si ChatGPT peut sembler être assez neutre sur la question du sexisme[165], certains biais subsistent[166]. ChatGPT lui-même réfute ou minimise parfois ces biais[167]. Par exemple, des chercheurs ayant testé ChatGPT sur la rédaction de lettres de recommandation ont observé une tendance potentiellement préjudiciable à utiliser davantage des termes relatifs à l'expertise et à l'intégrité pour les hommes, et des termes relatifs à la beauté et au caractère chaleureux pour les femmes[41]. Des recherches suggèrent aussi que ChatGPT a un penchant politique en faveur de la gauche progressiste[42]. Participation au réchauffement climatiqueChatGPT s'attire des critiques en raison de sa forte consommation en électricité et en eau nécessaire pour refroidir les serveurs, durant son entraînement et durant l'utilisation proprement dite. L'entreprise OpenAI ne fournit aucune information sur la consommation du programme dans ces deux domaines ni sur la localisation de ses serveurs ; elle n'indique pas non plus combien de modèles fonctionnent en parallèle pour répondre aux requêtes (plus il y en a, plus la consommation est élevée) ; elle ne fournit pas non plus d'informations sur les processus de fabrication des composants électroniques utilisés[168]. Un article de recherche de l'université de Californie paru fin 2023 estime que l'entraînement de Chat GPT 3 a consommé 1 287 MWh d’électricité, et généré 552 tonnes d’équivalent CO2, soit l'équivalent de plus de 205 vols aller-retour entre Paris et New York. L'article fournit une approximation selon laquelle l'utilisation quotidienne de ChatGPT 3 créait 23,04 kg de CO2 par jour – c’est-à-dire 8,4 t CO2 par an, ce qui équivaut à environ six ans de chauffage électrique pour une maison de 100 m² en France[169],[168]. En mai 2024, un article du Brussels Times estime que la consommation électrique d'une requête faite à ChatGPT est estimée à 25 fois l'énergie consommée par une requête faite au moteur de recherche Google. Une conversation avec ChatGPT comprenant entre 20 et 50 questions consomme un demi-litre d'eau de refroidissement des serveurs, quantité à multiplier par les 60 millions d'internautes qui utilisent le programme quotidiennement[170],[171]. La consommation de ressources par ChatGPT, et par le secteur de l'intelligence artificielle en général, augmentent très rapidement du fait de la ruée des entreprises vers ce type d'outil sans considération pour leur impact environnemental[171]. Notes et références(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « ChatGPT » (voir la liste des auteurs).
Voir aussiArticles connexes
Liens externes
|
Portal di Ensiklopedia Dunia