Si vous avez récemment parcouru les forums technologiques clandestins, vous avez peut-être vu des publicités pour un nouveau programme appelé WormGPT.
Le programme est un outil basé sur l'IA permettant aux cybercriminels d'automatiser la création d'e-mails de phishing personnalisés ; bien que cela ressemble un peu à ChatGPT, WormGPT est pas votre sympathique IA de quartier.
ChatGPT a été lancé en novembre 2022 et, depuis lors, l’IA générative a pris d’assaut le monde. Mais rares sont ceux qui réfléchissent à la manière dont son essor soudain façonnera l’avenir de la cybersécurité.
En 2024, l’IA générative est sur le point de faciliter de nouveaux types de cybercriminalité transnationale et translingue. Par exemple, une grande partie de la cybercriminalité est orchestrée par des hommes sous-employés originaires de pays dont l’économie technologique est sous-développée. Le fait que l’anglais ne soit pas la langue principale dans ces pays a contrecarré la capacité des pirates informatiques à frauder les économies anglophones ; la plupart des anglophones peuvent identifier rapidement les e-mails de phishing grâce à leur langage unidiomatique et agrammatical.
Mais l’IA générative va changer cela. Les cybercriminels du monde entier peuvent désormais utiliser des chatbots comme WormGPT pour rédiger des e-mails de phishing personnalisés et bien rédigés. En apprenant des phishings sur le Web, les chatbots peuvent créer des escroqueries basées sur les données qui sont particulièrement convaincantes et efficaces.
En 2024, l’IA générative facilitera également le piratage biométrique. Jusqu’à présent, les méthodes d’authentification biométrique – empreintes digitales, reconnaissance faciale, reconnaissance vocale – étaient difficiles (et coûteuses) à usurper l’identité ; il n'est pas facile de simuler une empreinte digitale, un visage ou une voix.
L’IA, cependant, a rendu le deepfaking beaucoup moins coûteux. Vous ne pouvez pas imiter la voix de votre cible ? Dites à un chatbot de le faire pour vous.
Et que se passera-t-il lorsque les pirates commenceront à cibler eux-mêmes les chatbots ? L’IA générative n’est que cela : générative ; cela crée des choses qui n'existaient pas auparavant. Le schéma de base permet aux pirates informatiques d’injecter des logiciels malveillants dans les objets générés par les chatbots. En 2024, toute personne utilisant l’IA pour écrire du code devra s’assurer que le résultat n’a pas été créé ou modifié par un pirate informatique.
D’autres acteurs malveillants commenceront également à prendre le contrôle des chatbots en 2024. Une caractéristique centrale de la nouvelle vague d’IA générative est son « inexplicabilité ». Les algorithmes entraînés via l’apprentissage automatique peuvent donner des réponses surprenantes et imprévisibles à nos questions. Même si ce sont des gens qui ont conçu l’algorithme, nous ne savons pas comment il fonctionne.
Il semble donc naturel que les futurs chatbots agissent comme des oracles tentant de répondre à des questions éthiques et religieuses difficiles. Sur Jésus-ai.com, par exemple, vous pouvez poser des questions à un Jésus artificiellement intelligent. Ironiquement, il n’est pas difficile d’imaginer que des programmes comme celui-ci soient créés de mauvaise foi. Une application appelée Krishna, par exemple, a déjà conseillé de tuer les incroyants et soutenir le parti au pouvoir en Inde. Qu'est-ce qui empêchera les escrocs d'exiger la dîme ou de promouvoir des actes criminels ? Ou, comme l’a fait un chatbot, dire aux utilisateurs de quitter leur conjoint ?
Tous les outils de sécurité sont à double usage : ils peuvent être utilisés pour attaquer ou pour se défendre. Ainsi, en 2024, nous devrions nous attendre à ce que l’IA soit utilisée à la fois à des fins offensives et défensives. Les pirates peuvent utiliser l’IA pour tromper les systèmes de reconnaissance faciale, mais les développeurs peuvent utiliser l’IA pour rendre leurs systèmes plus sécurisés. En effet, l’apprentissage automatique est utilisé depuis plus d’une décennie pour protéger les systèmes numériques. Avant de nous inquiéter trop des nouvelles attaques de l’IA, nous devons nous rappeler qu’il y aura également de nouvelles défenses IA adaptées.