Comment concilier intelligence artificielle et travail journalistique ? La directive de la Fondation Hirondelle

Gwenn Dubourthoumieu / Fondation Hirondelle

Entre espoirs d’une plus grande efficacité et préoccupations quant à ses multiples biais, l’intégration de l’intelligence artificielle (IA) dans le travail journalistique soulève de nombreuses interrogations. La Fondation Hirondelle a, dans ce contexte, adopté une directive visant à définir clairement l’utilisation de l’IA au sein de ses rédactions. Jacqueline Dalton, responsable éditoriale de la Fondation Hirondelle, revient sur les questionnements liés à l’usage de l’IA dans le journalisme et sur la position de la Fondation Hirondelle à ce sujet.

Pour quelles raisons la question de l’IA s’est posée au sein de la Fondation Hirondelle ?

Jacqueline Dalton : Les discussions ont commencé il y a un an et demi avec l’explosion de l’utilisation des agents conversationnels tel que ChatGPT et des logiciels d’IA générative d’images et de vidéos. Au départ, nous souhaitions appréhender les opportunités et les risques que ces outils pouvaient représenter pour le travail journalistique, d’autant plus dans des contextes fragiles. L’intelligence artificielle étant un vecteur important de la propagation de fausses informations, nous voulions nous assurer qu’en cas d’utilisation d’outils d’IA dans nos rédactions, nous communiquerions de manière précise et claire sur son usage, en vue de conserver le rapport de confiance que nos médias entretiennent avec leurs audiences.

Quelles furent les principales interrogations concernant son utilisation ?

Il peut être tentant de vouloir utiliser pleinement ces outils pour gagner en efficacité, réduire les coûts, et ne plus se creuser autant la tête ! Cependant, d’importants risques existent et sont contraires à notre volonté de produire des informations indépendantes, fiables, et de proximité. Pour prendre un exemple concret, nous recevons parfois des communiqués venant du public que nous résumons et lisons à l’antenne. Ces processus étant chronophages, la question de l’utilisation de voix d’intelligence artificielle pour lire ces bulletins s’est alors posée. Après réflexion, un pareil usage aurait été contraire à l’authenticité de nos médias, qui tirent leur force de leur proximité et de leur lien de confiance avec le public : utiliser une voix artificielle à la place d’une voix humaine pourrait briser ce lien. De plus, le fonctionnement des outils d’intelligence artificielle comprend de nombreux biais. Tout d’abord, le but d’un agent conversationnel est d’apporter une réponse vraisemblable, ce qui ne veut pas dire qu’elle est vraie. D’autre part, cet outil d’IA reste à l’image du contenu qu’il « aspire » sur le web et digère ensuite, et peut ainsi inclure des biais culturels importants, d’autant plus dans les pays où nous travaillons. Dans ce contexte, l’utilisation de l’intelligence artificielle vise à soutenir nos équipes mais ne les remplace pas. Les journalistes restent donc pleinement responsables des décisions éditoriales et de la validation du contenu.

Comment les équipes sont-elles formées et sensibilisées à l’utilisation de l’IA ?

Nous sommes actuellement au début de ce processus. Pour l’instant, nous avons identifié les outils avec lesquels nous pourrions travailler et avons établi un guide d’utilisation, une directive, pour les équipes. Ce document a été bien accueilli, car il répondait à un besoin de cadrage dans le flou d’interprétation entre ce qui est considéré comme correct ou non. Cependant, cela n’est pas suffisant ; il faut également mettre en place des formations avec des exemples concrets auxquels les journalistes peuvent se référer. Notre but est de former tous les journalistes de nos rédactions d’ici la fin de l’année. La directive d’utilisation pourra également être mise à jour en fonction des retours des équipes.

Quelles sont les points clés de la directive de la Fondation Hirondelle sur l’IA ?

Quatre principes sont fondamentaux au sein de notre directive :

  • Une approche centrée sur l’humain : l’IA soutient nos équipes mais ne les remplace pas. Les journalistes sont pleinement responsables des décisions éditoriales et de la validation du contenu.
  • Une transparence avec le public : lorsque du contenu est principalement généré par un outil d’IA — que ce soit du texte, des images, de l’audio ou de la vidéo — cela est clairement indiqué au public.
  • Le respect de la qualité et de l’intégrité : tout le contenu doit continuer à respecter les normes rigoureuses définies dans notre Code d’éthique et de déontologie professionnelle. L’utilisation de l’IA ne doit jamais compromettre l’exactitude des faits ou la qualité éditoriale.
  • Le respect de notre éthique et de notre responsabilité : tout contenu généré par l’IA doit être vérifié à l’aide de sources indépendantes. Les informations sensibles, confidentielles ou permettant l’identification personnelle ne sont également jamais partagées avec des outils d’IA.

Au sein de la Fondation Hirondelle, nous souhaitons réaffirmer qu’un journalisme digne de confiance repose sur la vérification humaine des faits, la présence sur le terrain et la responsabilité éthique. Nous rejetons ainsi toute utilisation négligente de l’IA qui pourrait miner la confiance du public.