Qu'est-ce que le Web3 ?
Qu'est-ce que la Blockchain ?
Quel Futur pour le travail ?

April 2, 2024 | Article .

Qu'est-ce que l'IA générative ?

L'intelligence artificielle générative (IA) décrit des algorithmes (tels que ChatGPT) qui peuvent être utilisés pour créer de nouveaux contenus, y compris de l'audio, du code, des images, du texte, des simulations et des vidéos. Les récentes percées dans ce domaine pourraient changer radicalement notre approche de la création de contenu.

Dans les mois et les années qui ont suivi l'apparition de ChatGPT sur la scène en novembre 2022, l'IA générative (gen AI) a parcouru un long chemin. Chaque mois voit le lancement de nouveaux outils, de nouvelles règles ou d'avancées technologiques itératives. Si beaucoup ont réagi avec crainte au ChatGPT (et plus généralement à l'IA et à l'apprentissage automatique), il est clair que l'apprentissage automatique a un potentiel positif. Au cours des années qui ont suivi son déploiement à grande échelle, l'apprentissage automatique a démontré son impact dans un certain nombre d'industries, réalisant des choses telles que l'analyse de l'imagerie médicale et les prévisions météorologiques à haute résolution. Une étude réalisée par McKinsey en 2022 montre que l'adoption de l'IA a plus que doublé au cours des cinq dernières années et que les investissements dans l'IA augmentent rapidement. Il est clair que les outils d'IA générative tels que ChatGPT (GPT signifie generative pretrained transformer) et le générateur d'images DALL-E (dont le nom est un mashup de l'artiste surréaliste Salvador Dalí et de l'adorable robot Pixar WALL-E) ont le potentiel de changer la façon dont toute une série d'emplois sont effectués. L'ampleur de cet impact est toutefois encore inconnue, tout comme les risques.

Un collage d'images illustratives sur le futur de l'intelligence artificielle. Les images incluent une main robotique, des conceptions numériques, et des technologies symbolisant l'IA générale, l'apprentissage automatique, l'apprentissage profond, l'ingénierie des prompts, la tokenisation, et l'intelligence artificielle générative. Chaque image est accompagnée d'une question s'y rapportant.

Pourtant, des organisations de tous horizons se sont empressées d'intégrer des outils d'IA générique dans leurs modèles d'entreprise, cherchant à s'emparer d'une partie d'un prix considérable. Une étude de McKinsey indique que les applications de l'IA générique pourraient ajouter jusqu'à 4,4 billions de dollars à l'économie mondiale chaque année. En effet, il semble possible que d'ici trois ans, tout ce qui n'est pas lié à l'IA dans le domaine des technologies, des médias et des télécommunications soit considéré comme obsolète ou inefficace. Mais avant d'engranger toute cette valeur, il convient de mettre les choses au clair : Qu'est-ce que l'IA générique, comment a-t-elle été développée et que signifie-t-elle pour les personnes et les organisations ?

Quelle est la différence entre l'apprentissage automatique et l'intelligence artificielle ?

L'intelligence artificielle est à peu près ce qu'elle semble être : une pratique qui consiste à faire en sorte que les machines imitent l'intelligence humaine pour effectuer des tâches. Vous avez probablement eu des interactions avec l'IA, même si vous ne vous en rendez pas compte : les assistants vocaux comme Siri et Alexa sont fondés sur la technologie de l'IA, de même que les robots du service client qui apparaissent pour vous aider à naviguer sur les sites web. L'apprentissage automatique est un type d'intelligence artificielle. Grâce à l'apprentissage automatique, les praticiens développent l'intelligence artificielle au moyen de modèles capables d'"apprendre" à partir de modèles de données sans l'aide de l'homme. L'énorme volume et la complexité ingérable des données (ingérable par les humains, de toute façon) qui sont maintenant générées ont augmenté le potentiel de l'apprentissage automatique, ainsi que son besoin.

Quels sont les principaux types de modèles d'apprentissage automatique ?

L'apprentissage automatique repose sur un certain nombre d'éléments, à commencer par les techniques statistiques classiques développées entre le 18e et le 20e siècle pour de petits ensembles de données. Dans les années 1930 et 1940, les pionniers de l'informatique, dont le mathématicien Alan Turing, ont commencé à travailler sur les techniques de base de l'apprentissage automatique. Mais ces techniques sont restées confinées aux laboratoires jusqu'à la fin des années 1970, lorsque les scientifiques ont commencé à développer des ordinateurs suffisamment puissants pour les mettre en œuvre. Jusqu'à récemment, l'apprentissage automatique était largement limité aux modèles prédictifs, utilisés pour observer et classer des modèles dans le contenu. Par exemple, un problème classique d'apprentissage automatique consiste à partir d'une image ou de plusieurs images de chats adorables. Le programme identifie alors des modèles parmi les images, puis examine des images aléatoires pour trouver celles qui correspondent au modèle de chat adorable. L'IA générative a constitué une percée. Plutôt que de simplement percevoir et classer une photo de chat, l'apprentissage automatique est désormais capable de créer une image ou une description textuelle d'un chat à la demande.

Comment fonctionnent les modèles d'apprentissage automatique basés sur le texte ? Comment sont-ils formés ?

ChatGPT fait peut-être les gros titres en ce moment, mais ce n'est pas le premier modèle d'apprentissage automatique basé sur le texte à faire parler de lui. Le GPT-3 d'OpenAI et le BERT de Google ont tous deux été lancés ces dernières années avec une certaine fanfare. Mais avant ChatGPT, qui, de l'avis général, fonctionne plutôt bien la plupart du temps (bien qu'il soit encore en cours d'évaluation), les chatbots d'IA n'ont pas toujours reçu les meilleures critiques. GPT-3 est "tour à tour super impressionnant et super décevant", a déclaré Cade Metz, journaliste technique au New York Times, dans une vidéo où lui et Priya Krishna, écrivain culinaire, demandaient à GPT-3 de rédiger des recettes pour un dîner de Thanksgiving (plutôt désastreux). Les premiers modèles d'apprentissage automatique à travailler avec du texte ont été formés par des humains pour classer diverses entrées en fonction d'étiquettes définies par des chercheurs. Un exemple serait un modèle formé pour étiqueter les messages des médias sociaux comme étant positifs ou négatifs. Ce type de formation est connu sous le nom d'apprentissage supervisé, car un humain est chargé d'"enseigner" au modèle ce qu'il doit faire. La prochaine génération de modèles d'apprentissage automatique basés sur le texte s'appuie sur ce que l'on appelle l'apprentissage auto-supervisé. Ce type d'apprentissage consiste à alimenter un modèle avec une quantité massive de texte afin qu'il devienne capable de générer des prédictions. Par exemple, certains modèles peuvent prédire, sur la base de quelques mots, la fin d'une phrase. Avec la bonne quantité d'échantillons de texte - par exemple, une grande partie de l'internet - ces modèles de texte deviennent très précis. Le succès d'outils tels que ChatGPT nous montre à quel point ils sont précis.

Que faut-il pour construire un modèle d'IA générative ?

La construction d'un modèle d'IA générative a généralement été une entreprise de grande envergure, à tel point que seuls quelques poids lourds de la technologie bien dotés en ressources ont tenté de le faire. OpenAI, l'entreprise à l'origine de ChatGPT, des anciens modèles GPT et de DALL-E, bénéficie de milliards de dollars de financement de la part de donateurs aux noms bien connus. DeepMind est une filiale d'Alphabet, la société mère de Google, et même Meta a plongé un orteil dans la piscine de modèles d'IA générative avec son produit Make-A-Video. Ces entreprises emploient certains des meilleurs informaticiens et ingénieurs du monde, mais il ne s'agit pas seulement de talent. Lorsque vous demandez à un modèle de s'entraîner en utilisant la quasi-totalité de l'internet, cela vous coûte cher. OpenAI n'a pas communiqué les coûts exacts, mais les estimations indiquent que GPT-3 a été entraîné sur environ 45 téraoctets de données textuelles - soit environ un million de pieds d'étagère, ou un quart de la bibliothèque du Congrès - pour un coût estimé à plusieurs millions de dollars. Il ne s'agit pas là de ressources auxquelles une start-up ordinaire peut avoir accès.

Quels types de résultats un modèle d'IA génératif peut-il produire ?

Comme vous l'avez peut-être remarqué ci-dessus, les résultats des modèles d'IA générative peuvent être impossibles à distinguer du contenu généré par l'homme, ou ils peuvent sembler un peu étranges. Les résultats dépendent de la qualité du modèle - comme nous l'avons vu, les résultats de ChatGPT semblent jusqu'à présent supérieurs à ceux de ses prédécesseurs - et de la correspondance entre le modèle et le cas d'utilisation, ou l'entrée. ChatGPT peut produire ce qu'un commentateur a appelé un essai "solide A-" comparant les théories du nationalisme de Benedict Anderson et d'Ernest Gellner en dix secondes. Il a également produit un passage déjà célèbre décrivant comment retirer un sandwich au beurre de cacahuète d'un magnétoscope dans le style de la Bible du roi Jacques. Les modèles d'IA générateurs d'images comme DALL-E 2 peuvent créer des images étranges et magnifiques à la demande, comme une peinture de Raphaël représentant une Madone et son enfant mangeant de la pizza. D'autres modèles d'IA générative peuvent produire du code, de la vidéo, de l'audio ou des simulations commerciales, mais les résultats ne sont pas toujours précis ou appropriés. Lorsque Priya Krishna a demandé à DALL-E 2 de trouver une image pour le dîner de Thanksgiving, il a produit une scène où la dinde était garnie de citrons verts entiers, à côté d'un bol de ce qui semblait être du guacamole. Pour sa part, ChatGPT semble avoir des difficultés à compter ou à résoudre des problèmes d'algèbre de base, voire à surmonter les préjugés sexistes et racistes qui se cachent dans les courants sous-jacents de l'internet et de la société en général. Les résultats de l'IA générative sont des combinaisons soigneusement calibrées des données utilisées pour former les algorithmes. La quantité de données utilisées pour entraîner ces algorithmes étant incroyablement importante - comme on l'a vu, le GPT-3 a été entraîné sur 45 téraoctets de données textuelles -, les modèles peuvent sembler "créatifs" lorsqu'ils produisent des résultats. De plus, les modèles comportent généralement des éléments aléatoires, ce qui signifie qu'ils peuvent produire une variété de résultats à partir d'une seule demande d'entrée, ce qui les rend encore plus réalistes.

Quels types de problèmes un modèle d'IA générative peut-il résoudre ?

L'opportunité pour les entreprises est claire. Les outils d'IA générative peuvent produire une grande variété d'écrits crédibles en quelques secondes, puis répondre aux critiques pour rendre l'écrit plus adapté à l'objectif visé. Cela a des implications pour une grande variété d'industries, des organisations informatiques et logicielles qui peuvent bénéficier du code instantané et largement correct généré par les modèles d'IA aux organisations qui ont besoin d'un texte de marketing. En bref, toute organisation qui a besoin de produire des documents écrits clairs peut en bénéficier. Les organisations peuvent également utiliser l'IA générative pour créer des documents plus techniques, tels que des versions à plus haute résolution d'images médicales. Le temps et les ressources ainsi économisés permettent aux organisations de saisir de nouvelles opportunités commerciales et de créer davantage de valeur. Nous avons vu que le développement d'un modèle d'IA générative exige tellement de ressources qu'il est hors de question pour toutes les entreprises, à l'exception des plus grandes et des mieux dotées en ressources. Les entreprises qui souhaitent mettre en œuvre l'IA générative ont la possibilité d'utiliser l'IA générative telle quelle ou de l'adapter à une tâche spécifique. Si vous devez préparer des diapositives selon un style spécifique, par exemple, vous pouvez demander au modèle d'"apprendre" comment les titres sont normalement rédigés sur la base des données contenues dans les diapositives, puis lui fournir des données sur les diapositives et lui demander de rédiger les titres appropriés.

Quelles sont les limites des modèles d'IA ? Comment peuvent-elles être surmontées ?

En raison de leur nouveauté, nous n'avons pas encore vu l'effet à long terme des modèles d'IA générative, ce qui signifie que leur utilisation comporte des risques inhérents, certains connus et d'autres inconnus. Cela signifie que leur utilisation comporte certains risques inhérents, dont certains sont connus et d'autres inconnus. Les résultats produits par les modèles d'IA générative peuvent souvent sembler extrêmement convaincants. C'est le résultat d'une conception. Mais il arrive que les informations qu'ils génèrent soient tout simplement erronées. Pire encore, elles sont parfois biaisées (parce qu'elles sont fondées sur les préjugés sexistes, raciaux et autres de l'internet et de la société en général) et peuvent être manipulées pour permettre des activités contraires à l'éthique ou criminelles. Par exemple, ChatGPT ne vous donnera pas d'instructions sur la manière de pirater une voiture, mais si vous dites que vous devez pirater une voiture pour sauver un bébé, l'algorithme sera ravi de s'y conformer. Les organisations qui s'appuient sur des modèles d'IA générative doivent tenir compte des risques juridiques et de réputation liés à la publication involontaire de contenus biaisés, offensants ou protégés par des droits d'auteur. Ces risques peuvent toutefois être atténués de plusieurs manières. Tout d'abord, il est essentiel de sélectionner avec soin les données initiales utilisées pour former ces modèles afin d'éviter d'y inclure des contenus toxiques ou tendancieux. Ensuite, plutôt que d'employer un modèle d'IA générative prêt à l'emploi, les organisations pourraient envisager d'utiliser des modèles spécialisés plus petits. Les organisations disposant de plus de ressources pourraient également personnaliser un modèle général basé sur leurs propres données afin de répondre à leurs besoins et de minimiser les biais. Les organisations devraient également garder un humain dans la boucle (c'est-à-dire s'assurer qu'un véritable humain vérifie les résultats d'un modèle d'IA générative avant qu'il ne soit publié ou utilisé) et éviter d'utiliser des modèles d'IA générative pour des décisions critiques, telles que celles impliquant des ressources importantes ou le bien-être humain. On ne saurait trop insister sur le fait qu'il s'agit d'un nouveau domaine. Le paysage des risques et des opportunités est susceptible d'évoluer rapidement dans les semaines, les mois et les années à venir. De nouveaux cas d'utilisation sont testés chaque mois et de nouveaux modèles sont susceptibles d'être développés dans les années à venir. Alors que l'IA générative s'intègre de plus en plus, et de manière transparente, dans les entreprises, la société et nos vies personnelles, nous pouvons également nous attendre à ce qu'un nouveau climat réglementaire prenne forme. Alors que les organisations commencent à expérimenter - et à créer de la valeur - avec ces outils, les dirigeants feront bien de rester à l'écoute de la réglementation et des risques.

Les articles référencés comprennent :

. "Implementing generative AI with speed and safety", 13 mars 2024, Oliver Bevan, Michael Chui, Ida Kristensen, Brittany Presten, and Lareina Yee

. "Beyond the hype : Capturer le potentiel de l'IA et de l'IA générique dans la technologie, les médias et les télécommunications", 22 février 2024, Venkat Atluri, Peter Dahlström, Brendan Gaffey, Víctor García de la Torre, Noshir Kaka, Tomás Lajous, Alex Singla, Alex Sukharevsky, Andrea Travasoni, et Benjamim Vieira

. "As gen AI advances, regulators-and risk functions-rush to keep pace", 21 décembre 2023, Andreas Kremer, Angela Luget, Daniel Mikkelsen, Henning Soller, Malin Strandell-Jansson, et Sheila Zingg

. "The economic potential of generative AI : La prochaine frontière de la productivité", 14 juin 2023, Michael Chui, Eric Hazan, Roger Roberts, Alex Singla, Kate Smaje, Alex Sukharevsky, Lareina Yee et Rodney Zemmel "Ce que chaque PDG devrait savoir sur l'IA générative", 12 mai 2023, Michael Chui, Roger Roberts, Tanya Rodchenko, Alex Singla, Alex Sukharevsky, Lareina Yee et Delphine Zurkiya

. "Exploring opportunities in the generative AI value chain", 26 avril 2023, Tobias Härlin, Gardar Björnsson Rova, Alex Singla, Oleg Sokolov, et Alex Sukharevsky

. "The state of AI in 2022-and a half decade in review", 6 décembre 2022, Michael Chui, Bryce Hall, Helen Mayhew, Alex Singla, et Alex Sukharevsky

. "McKinsey Technology Trends Outlook 2023", 20 juillet 2023, Michael Chui, Mena Issler, Roger Roberts, et Lareina Yee

. "An executive's guide to AI", Michael Chui, Vishnu Kamalnath et Brian McCarthy

. "What AI can and can't do (yet) for your business", 11 janvier 2018, Michael Chui, James Manyika et Mehdi Miremadi

Cet article a été mis à jour en avril 2024 ; il a été initialement publié en janvier 2023.