Estelle Cognacq, directrice adjointe de Franceinfo et directrice de l’agence de Radio France est au micro d’Emmanuelle Daviet.
Emmanuelle Daviet : Selon une récente étude de l’Organisation mondiale de la presse World Association of News Publishers (WAN-IFRA) en collaboration avec Schickler Consulting, près de la moitié des rédactions à travers le monde utilise déjà des outils d’intelligence artificielle. On sait que des journalistes y voient une menace pour leur métier. Mais on apprend en lisant ce document que 70 % des participants à cette enquête accueillent plutôt favorablement l’intelligence artificielle et s’attendent à ce que ces outils leur soient utiles dans leur quotidien de journalistes. Et seulement 20 % des répondants ont indiqué avoir des directives de leurs rédactions sur l’utilisation de l’IA dans leur travail, en matière de déontologie, par exemple. Alors des auditeurs commencent à nous écrire à ce sujet et l’un d’entre eux souhaite justement savoir si l’intelligence artificielle est utilisée par des journalistes et si oui, de quel logiciel s’agit-il ?
Estelle Cognacq: Alors oui, nous utilisons des logiciels depuis plusieurs années. C’est vrai que l’intelligence artificielle est venue sur le devant de la scène depuis quelques mois, mais ce n’est pas nouveau. C’est juste que c’est une intelligence artificielle nouvelle, comme on dit conversationnelle, générative. Nous, nous utilisons d’autres intelligences artificielles et cela parfois depuis, je dirais cinq ou six ans pour les premières. Généralement, ce sont des logiciels qui sont là pour assister nos journalistes, nos équipes éditoriales dans la détection et le « sourcing » d’une information, dans l’exploration de bases de données très importantes et dans la transcription automatique de l’audio. Ce sont les principaux usages. On utilise par exemple sur la transcription automatique de l’audio, un logiciel qui s’appelle Trint. C’est à dire qu’on va passer un fichier audio, une interview et ça va retranscrire le texte. C’est une aide pour nos journalistes, ça leur permet d’aller plus vite pour ensuite en faire des résumés, les exploiter. On utilise un logiciel qui s’appelle Data Miner, qui nous permet de détecter des informations, des événements en train de se produire à travers les réseaux sociaux, notamment Twitter. Donc ça détecte, on va dire, une explosion quelque part, un feu. Et ça permet à notre journaliste d’être alerté. Ça ne fait pas du tout le travail à leur place. En fait, encore une fois, c’est de l’alerte et ensuite, on a un partenariat avec un laboratoire qui s’appelle l’Inria sur notre cellule du vrai, du faux, de vérification d’informations. C’est un outil développé pour nous par eux, qui s’appelle State Check et là, qui permet de nous aider dans le fact checking. Ça veut dire que ça va détecter, parmi des tweets d’hommes politiques ou de personnalités, des éléments quantitatifs de chiffre sur lequel ensuite on va pouvoir travailler. Et ensuite, une fois qu’on a choisi cette phrase ou cet élément à investiguer, on a une autre partie du logiciel qui nous aide à aller dans les bases de données d’Eurostat et de l’Insee pour aller chercher la vraie réponse.
Emmanuelle Daviet : Quel avantage voyez vous à l’utilisation de l’intelligence artificielle dans le travail des journalistes et quelles en sont les limites ?
Estelle Cognacq: Alors d’abord, le but recherché, pour nous, ce n’est pas la production automatisée de contenus, ça c’est certain. C’est plutôt de fournir des outils, des technologies à nos journalistes pour, on va dire, libérer du temps pour se consacrer sur des parties de travail qui ont peut être plus de valeur, plus d’intérêt. Et puis il y a des choses qui sont plus complexes à faire : aller à la main, un humain, dans des bases de données de milliers d’éléments, c’est pas envisageable. Donc les limites, ensuite, on les fixe nous mêmes. Aujourd’hui, par exemple, nous n’utilisons pas de logiciels qui génèrent des images, des vidéos ou du son, ni ChatGpt et toute cette intelligence artificielle générative, comme on dit aujourd’hui, on la regarde, nous, on est en train de voir ce qu’on peut en faire ou pas en faire. Mais voilà, on est très prudent. On a une seule exception. En fait, c’est pour traiter une activité qui porterait sur l’IA. Et à des fins d’explications pédagogiques, on pourrait dire « Regardez, pour certains articles, nous avons utilisé ChatGpt », on pourrait se dire on prend la disserte du bac par exemple, et on dire voilà, qu’est-ce que ChatGpt aurait écrit. Ça, c’est un exemple, mais on le mentionnera toujours.
Emmanuelle Daviet : Question d’une auditrice : quelles mesures et garanties sont mises en place pour assurer l’éthique de l’utilisation de l’intelligence artificielle par les journalistes ?
Estelle Cognacq: Je vous le disais, on a limité donc les usages. Et puis surtout, nous sommes en train de travailler sur une charte pour encadrer cet usage et tous ces outils d’intelligence artificielle. Elle devra justement garantir le respect de la déontologie professionnelle et une grande transparence sur son utilisation. On doit, je pense, à nos auditeurs, internautes, lecteurs, de leur dire voilà ce que nous utilisons ou pas comme logiciel d’intelligence artificielle, le mentionner, le faire savoir. Par ailleurs, cette charte devra aussi être très, très réactive, c’est les enjeux, s’adapter aux évolutions de ces métiers et de ces outils. Parce que c’est très, très rapide. Il faut qu’on soit très vigilant, suivre ce qui se fait à chaque fois, se questionner sur ce qu’on utilise et ce qu’on n’utilise pas. On a un gros enjeu de formation professionnelle. C’est un monde qui évolue très, très vite. Il peut y avoir la tentation d’utiliser ces outils sans garde-fou. Sans se poser des questions. Et nous, à Franceinfo et à Radio France, on veut accompagner ces innovations, c’est évident. Le monde change, il évolue. Mais par contre, à bon escient et dans le respect des valeurs et de l’éthique d’un média de service public.