L'intelligence artificielle commence à s'infiltrer progressivement dans les pages d'opinion des grands journaux américains, tels que le New York Times, sans divulgation claire à ce sujet. Cela suscite des inquiétudes croissantes concernant la crédibilité du contenu journalistique et la confiance des lecteurs.
Dans un article publié par The Atlantic, l'auteure Vohini Farah a confirmé que le débat sur l'utilisation de l'intelligence artificielle dans l'écriture journalistique s'est intensifié après une publication de l'auteure Becky Tok sur la plateforme X, où elle a remis en question le style d'un article dans la rubrique Modern Love du New York Times. Tok a estimé que la langue de l'article semblait plus proche des textes produits par des modèles d'intelligence artificielle.
Détails de l'événement
La publication de Tok a suscité une large réaction, poussant certains chercheurs à tester le texte à l'aide d'outils spécialisés dans la détection de contenu généré automatiquement. Les résultats de ces outils ont montré une grande variabilité, l'un d'eux estimant que plus de 60% du texte portait des caractéristiques de l'intelligence artificielle, tandis que d'autres outils ont indiqué des taux plus bas ou n'ont pas détecté d'utilisation claire, reflétant ainsi les limites de ces technologies et leur inexactitude dans le jugement final.
Dans son commentaire, l'auteure de l'article Kate Gilgan a confirmé qu'elle n'avait pas copié des textes prêts à l'emploi à partir d'outils d'intelligence artificielle, mais elle a admis les avoir utilisées comme aide à l'édition, en s'appuyant sur des plateformes telles que ChatGPT, Claude et Gemini, pour aider à développer des idées et maintenir la cohérence du texte. Cela soulève des questions sur les frontières entre l'édition humaine et la contribution algorithmique.
Contexte et arrière-plan
Vohini Farah souligne que cet incident n'est pas une exception, mais fait partie d'un phénomène plus large. Des recherches menées par des chercheurs en informatique, tels que Tuhin Chakrabarti et Gina Russell, ont montré des indices d'utilisation de l'intelligence artificielle dans des articles d'opinion publiés dans plusieurs des principaux journaux américains, y compris le Wall Street Journal et le Washington Post, tandis que sa présence était moins marquée dans les contenus d'actualités traditionnels.
Elle a également attiré l'attention sur d'autres incidents controversés, comme le retrait d'un roman intitulé Shy Girl de la publication après des soupçons qu'il contenait des textes générés par l'intelligence artificielle, ainsi que la publication de contenus journalistiques comportant des informations inexactes, comme des listes de livres d'été contenant des titres inexistants en raison de l'utilisation d'outils de génération de texte.
Conséquences et impact
L'auteure souligne que le cœur du problème ne réside pas seulement dans l'utilisation de l'intelligence artificielle, mais dans l'absence de transparence. Le lecteur suppose que les articles publiés reflètent la voix de l'auteur et son expérience, alors qu'ils peuvent en réalité être un mélange de production humaine et algorithmique, sans clarification. Cette interférence pourrait entraîner une érosion de la confiance dans les institutions médiatiques, d'autant plus que les articles d'opinion influencent directement la formation des opinions du public et des décideurs.
Des études indiquent que les textes générés par l'intelligence artificielle peuvent être plus convaincants, malgré leur caractère stéréotypé et homogène. De plus, les modèles d'intelligence artificielle peuvent contenir des biais culturels ou politiques, ouvrant la voie à l'infiltration de ces biais dans le débat public à travers des plateformes censées être fiables.
Impact sur la région arabe
Dans le contexte de l'avancement rapide des technologies d'intelligence artificielle, les médias arabes font également face à des défis similaires. La crédibilité du contenu journalistique dans la région pourrait en être affectée, ce qui nécessite l'adoption de politiques éditoriales claires garantissant la transparence dans l'utilisation de ces technologies. L'absence de transparence pourrait également saper la confiance dans les institutions médiatiques arabes, nécessitant une réponse rapide et efficace.
En conclusion, faire face à la problématique de l'infiltration de l'intelligence artificielle dans l'écriture journalistique nécessite des politiques éditoriales claires obligeant les auteurs à divulguer l'utilisation de l'intelligence artificielle. Il est également essentiel de former les éditeurs à détecter les indicateurs de son utilisation, et peut-être d'envisager une intervention législative imposant des normes de transparence plus élevées, avertissant que la persistance de l'ambiguïté pourrait saper l'une des bases les plus importantes du travail journalistique : la confiance.
