Ces préoccupations expliquent en partie pourquoi OpenAI a déclaré en janvier qu’il interdirait aux gens d’utiliser sa technologie pour créer des chatbots imitant des candidats politiques ou fournissant de fausses informations liées au vote. La société a également déclaré qu'elle n'autoriserait pas les gens à créer des applications pour des campagnes politiques ou du lobbying.
Bien que la page du chatbot Kennedy ne divulgue pas le modèle sous-jacent qui l'alimente, le code source du site connecte ce bot à LiveChatAI, une société qui annonce sa capacité à fournir aux entreprises des chatbots de support client basés sur GPT-4 et GPT-3.5. Le site Web de LiveChatAI décrit ses robots comme « exploitant les capacités de ChatGPT ».
Lorsqu'on lui a demandé quel grand modèle de langage alimentait le bot de la campagne Kennedy, Emre Elbeyoglu, cofondateur de LiveChatAI, a déclaré jeudi dans un communiqué envoyé par courrier électronique que la plateforme « utilise une variété de technologies comme Llama et Mistral » en plus de GPT-3.5 et GPT-4. « Nous ne sommes pas en mesure de confirmer ou de nier les détails de l'utilisation d'un client en raison de notre engagement à respecter la confidentialité des clients », a déclaré Elbeyoglu.
Le porte-parole d'OpenAI, Niko Felix, a déclaré jeudi à WIRED que la société n'avait « aucune indication » que le chatbot de la campagne Kennedy s'appuyait directement sur ses services, mais a suggéré que LiveChatAI pourrait utiliser l'un de ses modèles via les services de Microsoft. Depuis 2019, Microsoft a aurait investi plus de 13 milliards de dollars dans OpenAI. Les modèles ChatGPT d'OpenAI ont depuis été intégrés dans Le moteur de recherche Bing de Microsoft et le Copilote Office 365 de l'entreprise.
Vendredi, un porte-parole de Microsoft a confirmé que le chatbot Kennedy « exploite les capacités du service Microsoft Azure OpenAI ». Microsoft a déclaré que ses clients n'étaient pas liés par les conditions de service d'OpenAI et que le chatbot Kennedy ne violait pas les politiques de Microsoft.
« Nos tests limités de ce chatbot démontrent sa capacité à générer des réponses qui reflètent le contexte prévu, avec des mises en garde appropriées pour éviter la désinformation », a déclaré le porte-parole. « Lorsque nous rencontrons des problèmes, nous nous engageons auprès des clients pour les comprendre et les guider vers des utilisations conformes à ces principes, et dans certains scénarios, cela pourrait nous conduire à interrompre l'accès d'un client à notre technologie. »
OpenAI n'a pas immédiatement répondu à une demande de commentaires de WIRED sur la question de savoir si le bot avait violé ses règles. Plus tôt cette année, la société a bloqué le développeur de Dean.bot, un chatbot construit sur les modèles d'OpenAI qui imitait Le candidat démocrate à la présidentielle Dean Phillips et fourni des réponses aux questions des électeurs.
Dimanche en fin d'après-midi, le service chatbot n'était plus disponible. Bien que la page reste accessible sur le site de la campagne Kennedy, la fenêtre du chatbot intégré affiche désormais une icône de point d'exclamation rouge et indique simplement « Chatbot introuvable ». WIRED a contacté Microsoft, OpenAI, LiveChatAI et la campagne Kennedy pour commenter la suppression apparente du chatbot, mais n'a pas reçu de réponse immédiate.
Compte tenu de la propension des chatbots à halluciner et à avoir le hoquet, leur utilisation dans des contextes politiques est controversée. Actuellement, OpenAI est le seul grand modèle de langage à interdire explicitement son utilisation dans les campagnes ; Meta, Microsoft, Google et Mistral ont tous des conditions d'utilisation, mais ils n'abordent pas directement la politique. Et étant donné qu'une campagne peut apparemment accéder à GPT-3.5 et GPT-4 via un tiers sans conséquence, il n'y a pratiquement aucune limitation.
« OpenAI peut dire qu'il ne permet pas d'une part l'utilisation électorale de ses outils ou l'utilisation de ses outils en campagne », a déclaré Woolley. « Mais d'un autre côté, cela permet également de rendre ces outils accessibles assez librement. Compte tenu de la nature distribuée de cette technologie, il faut se demander comment Open AI va réellement appliquer ses propres politiques.