L’essor récent de l’intelligence artificielle générative (IA) peut-il conduire à des transformations fondamentales dans le domaine de la mémoire de l’Holocauste ? Plus particulièrement en Europe de l’Est en lien avec le conflit opposant la Russie à l’Ukaine ? L’Institut für Kommunikations- und Medienwissenschaft à l’université de Berne mène actuellement un projet de recherche à ce propos dans le cadre d’un post-doctorat par l’intermédiaire d’un post-doctorat du Dr. Mykola Makhortykh et intitulé « Algorithmic turn in Holocaust memory transmission: Challenges, opportunities, threats ».
De premiers résultats ont déjà donné lieu à des publications. Il est en est ainsi de l’article suivant Makhortykh, M., Vziatysheva, V., & Sydorova, M. (2023). Generative AI and Contestation and Instrumentalization of Memory About the Holocaust in Ukraine. Eastern European Holocaust Studies, 1(2), 349‑355. https://doi.org/10.1515/eehs-2023-0054. En voici un résumé sur la démarche de recherche et les premiers résultats.
Premièrement, les IA générativex, tel que ChatGPT, offrent de nouvelles possibilités pour la mémoire de l’Holocauste, notamment une représentation du passé selon une multitude de perspectives et d’échelles, ainsi qu’un accès plus large à des aspects moins connus (Kansteiner 2022), en plus de nouvelles possibilités de détection des distorsions et du déni des faits historiques (Makhortykh et al. 2023).
Cependant, les difficultés à différencier les contenus créés par l’homme de ceux créés par l’IA font craindre également des représentations erronées ou déformées de l’Holocauste et peuvent faciliter la production de contenus historiques non authentiques (par exemple, de faux témoignages sur l’Holocauste).
C’est notamment le cas dans le cadre du conflit entre la Russie et l’Ukraine. Pour identifier ce qu’il en est relativement aux déformations possibles de la mémoire de l’Holocauste, les auteurs de l’article ont utilisé une sélection de 74 déclarations traduites en anglais, en russe et en ukrainien ; ces déclarations demandaient des informations sur les aspects de l’Holocauste qui sont généralement instrumentalisés et souvent déformés par la propagande pro-Kremlin. Ils ont ensuite vérifié les performances de deux grands agents conversationnels alimentés par l’IA – ChatGPT et Google Bard – en ce qui concerne les informations sur l’Holocauste en Ukraine.
L’étude montre une précision relativement faible des réponses fournies par les agents conversationnels avec des
- Taux de réponses correctes : entre 30% et 55% (variant selon l’agent et la langue)
- Taux de réponses partiellement correctes : entre 18% et 30%
- Taux de réponses inexactes : entre 20% à 45%
Parmi les erreurs notables commises :
- Plus grand nombre d’inexactitudes : ChatGPT en Ukraine
- Erreurs graves identifiées :
- Attribution incorrecte de crimes aux Ukrainiens et organisations ukrainiennes
- Erreur sur le massacre de Koryukivka (1943) : faussement attribué aux nationalistes ukrainiens au lieu des forces hongroises
- Désinformation sur le bataillon Nachtigall : présenté comme formé en 2014 plutôt que pendant la Seconde Guerre mondiale
Tout ceci indique des impacts potentiels majeurs à propos de la mémoire de l’Holocauste et deux premières préoccupations. La première concerne le risque de distorsion des faits historiques et de manipulation de l’opinion publique. La seconde réside dans une menace pour la mission des institutions de préservation de la mémoire de l’Holocauste.
Les auteurs terminent leur article avec des recommandations. En premier lieu, il s’agit d’améliorer les modèles d’IA en enrichissant les données d’entraînement sur l’Holocauste et d’optimiser les garde-fous pour éviter l’invention de faits historiques. En second lieu, il s’agit de sensibiliser aux risques de l’IA. Enfin, il est primordial de développer les compétences en littératie IA du public et des professionnels du patrimoine.
Référence de l’article (disponible en ligne) : Makhortykh, M., Vziatysheva, V., & Sydorova, M. (2023). Generative AI and Contestation and Instrumentalization of Memory About the Holocaust in Ukraine. Eastern European Holocaust Studies, 1(2), 349‑355. https://doi.org/10.1515/eehs-2023-0054.
Références bibliographies citées dans ce billet :
Kansteiner, W. (2022). Digital Doping for Historians : Can History, Memory, and Historical Theory Be Rendered Artificially Intelligent? History and Theory, 61(4), 119‑133. https://doi.org/10.1111/hith.12282
Makhortykh, M., Zucker, E. M., Simon, D. J., Bultmann, D., & Ulloa, R. (2023). Shall androids dream of genocides? How generative AI can change the future of memorialization of mass atrocities. Discover Artificial Intelligence, 3(1), 28. https://doi.org/10.1007/s44163-023-00072-6
Image d’en-tête générée par IA.
Laisser un commentaire