En discutant avec des dirigeants du commerce de détail en 2010, Rama Ramakrishnan est parvenu à deux constats. Premièrement, bien que les systèmes de vente au détail proposant des recommandations personnalisées aux clients suscitent beaucoup d’attention, ces systèmes n’apportent souvent que peu de résultats aux détaillants. Deuxièmement, pour de nombreuses entreprises, la plupart des clients ne faisaient leurs achats qu'une ou deux fois par an, de sorte que les entreprises ne savaient pas grand-chose à leur sujet.
« Mais en notant très soigneusement les interactions d'un client avec un détaillant ou un site de commerce électronique, nous pouvons créer une image composite très agréable et détaillée de ce que fait cette personne et de ce qui l'intéresse », explique Ramakrishnan, professeur. de la pratique à la MIT Sloan School of Management. « Une fois que vous avez cela, vous pouvez appliquer des algorithmes éprouvés issus de l'apprentissage automatique. »
Ces réalisations ont conduit Ramakrishnan à fonder CQuotient, une startup dont le logiciel est désormais devenu la base de la plateforme de commerce électronique d'IA largement adoptée par Salesforce. « Rien que lors du Black Friday, la technologie CQuotient voit et interagit probablement avec plus d'un milliard d'acheteurs en une seule journée », dit-il.
Après une carrière entrepreneuriale très réussie, Ramakrishnan est retourné en 2019 au MIT Sloan, où il avait obtenu une maîtrise et un doctorat en recherche opérationnelle dans les années 1990. Il enseigne aux étudiants « non seulement comment fonctionnent ces technologies étonnantes, mais aussi comment utiliser ces technologies et les utiliser de manière pragmatique dans le monde réel », dit-il.
De plus, Ramakrishnan aime participer à la formation des cadres du MIT. « C'est une excellente occasion pour moi de transmettre les choses que j'ai apprises, mais aussi, tout aussi important, de découvrir ce que pensent ces cadres supérieurs, de les guider et de les pousser dans la bonne direction », dit-il.
Par exemple, les dirigeants s’inquiètent, à juste titre, du besoin de quantités massives de données pour former les systèmes d’apprentissage automatique. Il peut désormais les guider vers une multitude de modèles pré-entraînés pour des tâches spécifiques. « La possibilité d'utiliser ces modèles d'IA pré-entraînés et de les adapter très rapidement à votre problème commercial particulier constitue une avancée incroyable », déclare Ramakrishnan.
Rama Ramakrishnan – Utiliser l'IA dans des applications du monde réel pour un travail intelligent
Vidéo : Programme de liaison industrielle du MIT
Comprendre les catégories d'IA
« L’IA vise à doter les ordinateurs de la capacité d’effectuer des tâches cognitives que seuls les humains peuvent généralement accomplir », dit-il. Comprendre l’histoire de ce paysage complexe et suralimenté facilite l’exploitation des technologies.
L’approche traditionnelle de l’IA, qui résolvait essentiellement les problèmes en appliquant des règles si/alors apprises des humains, s’est avérée utile pour relativement peu de tâches. « L'une des raisons est que nous pouvons faire beaucoup de choses sans effort, mais si on nous demande d'expliquer comment nous les faisons, nous ne pouvons pas réellement expliquer comment nous les faisons », commente Ramakrishnan. De plus, ces systèmes peuvent être déconcertés par de nouvelles situations qui ne correspondent pas aux règles inscrites dans le logiciel.
L’apprentissage automatique adopte une approche radicalement différente, le logiciel apprenant fondamentalement par l’exemple. « Vous lui donnez de nombreux exemples d'entrées et de sorties, de questions et de réponses, de tâches et de réponses, et vous faites en sorte que l'ordinateur apprenne automatiquement comment passer de l'entrée à la sortie », explique-t-il. L’évaluation du crédit, la prise de décision en matière de prêt, la prévision des maladies et la prévision de la demande font partie des nombreuses tâches conquises par l’apprentissage automatique.
Mais l’apprentissage automatique ne fonctionnait bien que lorsque les données d’entrée étaient structurées, par exemple dans une feuille de calcul. « Si les données d'entrée n'étaient pas structurées, telles que des images, des vidéos, des fichiers audio, des ECG ou des radiographies, il n'était pas très efficace de passer de ces données à une sortie prévue », explique Ramakrishnan. Cela signifie que les humains ont dû structurer manuellement les données non structurées pour entraîner le système.
Vers 2010, l’apprentissage profond a commencé à surmonter cette limitation, en offrant la possibilité de travailler directement avec des données d’entrée non structurées, explique-t-il. Basé sur une stratégie d'IA de longue date connue sous le nom de réseaux de neurones, l'apprentissage profond est devenu pratique en raison de la marée mondiale de données, de la disponibilité d'un matériel de traitement parallèle extraordinairement puissant appelé unités de traitement graphique (inventé à l'origine pour les jeux vidéo) et des progrès en matière d'algorithmes et de mathématiques.
Enfin, dans le cadre de l’apprentissage profond, les logiciels d’IA générative apparus l’année dernière peuvent créer des résultats non structurés, tels que des textes à consonance humaine, des images de chiens et des modèles tridimensionnels. Les grands modèles de langage (LLM) tels que ChatGPT d'OpenAI passent des entrées de texte aux sorties de texte, tandis que les modèles de texte à image tels que DALL-E d'OpenAI peuvent produire des images d'apparence réaliste.
Rama Ramakrishnan – Prendre note de peu de données pour améliorer le service client
Vidéo : Programme de liaison industrielle du MIT
Ce que l'IA générative peut (et ne peut pas) faire
Formé sur les ressources textuelles incroyablement vastes d'Internet, « la capacité fondamentale d'un LLM est de prédire le prochain mot le plus probable et le plus plausible », explique Ramakrishnan. « Ensuite, il associe le mot à la phrase originale, prédit à nouveau le mot suivant et continue de le faire. »
« À la surprise de beaucoup, y compris de nombreux chercheurs, un LLM peut faire des choses très compliquées », dit-il. « Il peut composer une poésie magnifiquement cohérente, écrire des épisodes de Seinfeld et résoudre certains types de problèmes de raisonnement. Il est vraiment remarquable de voir à quel point la prédiction du mot suivant peut conduire à ces capacités étonnantes.
« Mais vous devez toujours garder à l'esprit que ce qu'il fait n'est pas tant de trouver la bonne réponse à votre question que de trouver une réponse plausible à votre question », souligne Ramakrishnan. Son contenu peut être factuellement inexact, non pertinent, toxique, biaisé ou offensant.
Cela impose aux utilisateurs la responsabilité de s'assurer que le résultat est correct, pertinent et utile pour la tâche à accomplir. « Vous devez vous assurer qu'il existe un moyen de vérifier les erreurs dans le résultat et de les corriger avant qu'il ne soit publié », dit-il.
Des recherches intenses sont en cours pour trouver des techniques permettant de remédier à ces lacunes, ajoute Ramakrishnan, qui s'attend à ce que de nombreux outils innovants y parviennent.
Trouver les bons rôles en entreprise pour les LLM
Compte tenu des progrès étonnants des LLM, comment l'industrie devrait-elle envisager d'appliquer le logiciel à des tâches telles que la génération de contenu ?
Tout d’abord, conseille Ramakrishnan, considérez les coûts : « Est-ce un effort beaucoup moins coûteux de corriger un brouillon que de créer le tout ? Deuxièmement, si le LLM fait une erreur qui passe inaperçue et que le contenu erroné est divulgué au monde extérieur, pouvez-vous vivre avec les conséquences ?
« Si vous disposez d'une application qui répond à ces deux critères, il est alors judicieux de réaliser un projet pilote pour voir si ces technologies peuvent réellement vous aider dans cette tâche particulière », explique Ramakrishnan. Il souligne la nécessité de considérer le projet pilote comme une expérience plutôt que comme un projet informatique normal.
À l’heure actuelle, le développement de logiciels est l’application LLM d’entreprise la plus mature. « ChatGPT et d'autres LLM sont des entrées et des sorties de texte, et un logiciel n'est qu'une sortie de texte », dit-il. « Les programmeurs peuvent passer du texte entrant en anglais au texte sortant en Python, ainsi que de l'anglais à l'anglais ou de l'anglais à l'allemand. Il existe de nombreux outils qui vous aident à écrire du code à l’aide de ces technologies.
Bien entendu, les programmeurs doivent s’assurer que le résultat fait correctement son travail. Heureusement, le développement de logiciels offre déjà une infrastructure pour tester et vérifier le code. « C'est un endroit idéal », dit-il, « où il est beaucoup moins coûteux de laisser la technologie écrire du code pour vous, car vous pouvez le vérifier très rapidement. »
Une autre utilisation majeure du LLM est la génération de contenu, comme la rédaction de textes marketing ou de descriptions de produits de commerce électronique. « Encore une fois, il peut être beaucoup moins coûteux de corriger le brouillon de ChatGPT que d'écrire le tout », explique Ramakrishnan. « Cependant, les entreprises doivent faire très attention à ce qu'il y ait un humain dans le circuit. »
Les LLM se répandent également rapidement en tant qu'outils internes permettant de rechercher des documents d'entreprise. Contrairement aux algorithmes de recherche conventionnels, un chatbot LLM peut offrir une expérience de recherche conversationnelle, car il mémorise chaque question que vous posez. « Mais encore une fois, cela invente parfois des choses », dit-il. « En ce qui concerne les chatbots pour les clients externes, nous n’en sommes qu’à leurs débuts, en raison du risque de dire quelque chose de mal au client. »
Dans l’ensemble, note Ramakrishnan, nous vivons une époque remarquable pour lutter contre les potentiels et les pièges en évolution rapide de l’IA. «J'aide les entreprises à comprendre comment utiliser ces technologies très transformatrices et les mettre en œuvre, pour rendre les produits et services beaucoup plus intelligents, les employés beaucoup plus productifs et les processus beaucoup plus efficaces», dit-il.