Cet article poursuit l'idée selon laquelle les grands modèles de langage (LLM) formés pour générer du code peuvent considérablement améliorer l'efficacité des opérateurs de mutation appliqués aux programmes de programmation génétique (GP). Étant donné que ces LLM bénéficient de données de formation incluant des changements et des modifications séquentiels, ils peuvent se rapprocher des changements probables que les humains apporteraient. Pour mettre en évidence l'étendue des implications d'une telle évolution à travers de grands modèles (ELM), dans l'expérience principale, ELM combiné avec MAP-Elites génère des centaines de milliers d'exemples fonctionnels de programmes Python qui génèrent des robots ambulants fonctionnels dans le domaine Sodarace, que le LLM original je n'avais jamais vu en pré-entraînement. Ces exemples aident ensuite à amorcer la formation d'un nouveau modèle de langage conditionnel qui peut produire le bon marcheur pour un terrain particulier. La capacité d'amorcer de nouveaux modèles capables de produire des artefacts appropriés pour un contexte donné dans un domaine où aucune donnée de formation n'était auparavant disponible a des implications en termes d'ouverture, d'apprentissage en profondeur et d'apprentissage par renforcement. Ces implications sont explorées ici en profondeur dans l’espoir d’inspirer de nouvelles directions de recherche désormais ouvertes par ELM.