Christina Wille et Clara de Solages sont respectivement directrice et analyste de recherche chez Insecurity Insight, une organisation qui soutient le secteur humanitaire en collectant et analysant des données pour prévenir la violence et protéger les travailleur·euses de la santé, de l’éducation ainsi que les personnes déplacées et réfugiées.

Quel rôle joue l’IA dans la formation de discours hostiles à l’égard des acteurs humanitaires au Sahel en particulier ?
Clara : D’abord, il est important de mentionner que notre analyse ne donne pas une vision exhaustive de l’ensemble des discours hostiles touchant les agences humanitaires, car nous ne surveillons que les plateformes et les groupes publics. […] Sur les groupes publics au Mali, au Niger et au Burkina Faso, nous avons observé des exemples d’images générées par l’IA, partagées par des utilisateur.rices ordinaires ou des influenceur.ceuses. Il ne s’agit pas nécessairement de discours anti-aide, mais plutôt de discours pro-militaires qui s’accompagnent de discours anti-aide. […] La situation évolue très rapidement : cela ne fait que depuis six mois que nous voyons voit circuler ces images. Je n’ai pas encore vu d’exemples de vidéos anti-aide générées par l’IA, mais je suis sûre que cela ne saurait tarder.
Christina : De manière plus générale, il y a aussi les algorithmes qui peuvent avoir un effet néfaste en regroupant certaines opinions ou en permettant à certaines personnes de s’immiscer dans certaines conversations.
Quelle recommandation feriez-vous aux organisations humanitaires travaillant au Sahel pour mieux gérer les risques posés par l’IA sur les réseaux sociaux ?
Christina : Se familiariser avec elle. […] Je pense que la recommandation est vraiment d’adopter une posture critique, de la suivre, de s’y intéresser et de chercher à comprendre comment elle évolue […]. C’est extrêmement difficile car ce travail nécessite beaucoup de ressources humaines. Il faut donc davantage de collaboration entre les organisations spécialisées qui peuvent aider les agences humanitaires à s’y retrouver dans ce labyrinthe d’interprétations complexes.
Votre analyse de la surveillance en ligne de l’IA révèle-t-elle d’autres utilisations de l’IA que vous n’aviez pas anticipées ?
Christina : Lorsque nous avons débuté ce travail, nous pensions trouver observer des entreprises rémunérées qui essaieraient de placer certaines informations dans certains médias. En fait, je m’attendais à découvrir des campagnes de désinformation délibérées. Mais nous n’avons rien trouvé de tel. […] Ce que nous avons constaté, c’est que la conversation est alimentée par des commentaires plutôt que par des publications. Il ne s’agit donc pas tant d’un type de désinformation où quelqu’un publie des faits erronés que les gens commencent à croire, mais plutôt, des informations factuellement neutres et correctes sont publiées, et ce sont ensuite les commentaires et la manière dont les gens s’engagent, interprètent et relient ce sujet à d’autres questions qui créent des associations nuisibles aux organisations.
Clara: […]Les conversations sont très différentes sur les plateformes et les groupes privés comme sur Facebook, WhatsApp, Telegram ou encore Signal. Toutefois, nous n’avons pas accès à ces groupes et à tout ce qui est encrypté de manière générale, et ne disposons donc pas de données pour étayer cela. Cependant, comme nous constatons actuellement une baisse de l’engagement anti-aide en ligne dans ces pays, probablement en raison de la censure, c’est que la conversation se déplace sûrement vers ces plateformes privées. […] Plus généralement, ce qui me surprend, c’est que l’usage de l’IA ne soit pas encore plus répandu dans les données que nous analysons.
Insecurity Insight surveille les récits concernant le secteur humanitaire à travers le Sahel et en a résumé les résultats dans le rapport : The Shrinking Humanitarian Space on Social Media: Insight from Burkina Faso, Mali and Niger. A lire ici en français.
Cette interview est issue de notre Newsletter Sahel de septembre 2025.
Si vous souhaitez recevoir nos newsletter inscrivez-vous ici.
