|
|
État de l'artLe developpement des technologies d'IA générative pose des nombreuses questions pour le journalisme et les médias (Polezza, 2024). La dépendance de ces derniers aux infrastructures des géants technologiques les rend vulnérables à la « capture d'infrastructure » (van der Vlist et al. 2024). Cette dépendance est exacerbée par le coût élevé du développement de solutions d'IA internes et les avantages structurels des plateformes en matière de données, d'expertise et de puissance de calcul (Burkhardt & Rieder 2024). L'opacité des algorithmes utilisés par les plateformes pour diffuser et recommander l'information est une préoccupation majeure. Le manque de transparence rend difficile le contrôle des biais potentiels et peut menacer la diversité des opinions (Abokhodair et al., 2024). De ce fait, la concentration du pouvoir entre les mains de quelques géants technologiques représente un défi majeur pour la pluralité des médias et la démocratie et rend crucial l'exploration des modèles de gouvernance alternatifs et le renforcement du rôle des pouvoirs publics et de la société civile. Portée par de nouvelles promesses de productivité, l'IA générative est aussi en train de transformer les métiers du journalisme, en automatisant certaines tâches et en créant de nouvelles opportunités (Simon 2023). Non sans susciter de vives inquiétudes quant à l'impact attesté sur le travail, sa division et son organisation (Diakopoulos et al., 2024), l’IA est questionnée par les organisations professionnelles et les journalistes, notamment pour ce qui touche aux risques de remplacement technologique, de déqualification ou d’assistanat de la machine par l’homme (SNJ, 2024). Les implications éthiques du recours à l’IA dans la production automatisée d’information ont été appréhendées dans de nombreuses rédactions et, depuis 2022, de nouvelles chartes déontologiques dédiées ont vu le jour afin de redéfinir les bonnes pratiques et prévenir les mauvaises (Pettineo, 2024). La falsification des contenus et le clonage de sites d’information, optimisés par des outils d’IA générative grand public, reposent la question de la fiabilité de l’information et de l’authenticité des sources dans ce qui s’apparente à une nouvelle ère du soupçon de la relation des publics aux médias (Digital News Report, 2024). Vive inquiétude, enfin, des industriels de l’information dont la production est largement pillée par les industriels l’IA chaque fois que les systèmes s’entraînent sur leurs données sans accord préalable, contrevenant ainsi aux droits de la propriété intellectuelle et générant un manque à gagner important (Papaevangelou, Rebillard, Smyrnaios, 2024). Pour résumer, une analyse critique révèle des menaces substantielles pour l'avenir du secteur. L'automatisation croissante des tâches, loin de simplement alléger la charge de travail, augure d'une réduction potentielle des emplois et d'une déqualification des professionnels, soulevant des inquiétudes légitimes quant à la pérennité des métiers journalistiques. De manière préoccupante, la dépendance croissante des médias à l'égard des plateformes numériques pour l'adoption de l'IA, motivée par des contraintes financières et techniques, risque d'accentuer une asymétrie de pouvoir déjà existante, compromettant l'autonomie éditoriale face aux intérêts des géants technologiques. Les risques éthiques inhérents à l'usage de l'IA générative, notamment la propagation d'informations inexactes, la perpétuation de biais et le manque de transparence dans les processus de production, exigent une vigilance accrue et des nouvelles méthodes pour les contrecarrer (Dierickx, Lindén, Opdhal, 2023). Enfin, le cadre réglementaire en gestation, tel que l'Acte européen sur l'IA bien que necessaire, pourrait generer des effets paradoxaux en renforçant l’emprise de l’industrie du numérique au détriment des médias et des journalistes (Helberger, 2024). Toutes ces questions ouvrent un champ de recherche pluridisciplinaire à la fois primordial et passionnant. Bibliographie Helberger, N. (2024). FutureNewsCorp, or how the AI Act changed the future of news. Computer Law & Security Review, 52, 105915. Simon, F. M. (2024). Escape me if you can: How AI reshapes news organisations’ dependency on platform companies. Digital Journalism, 12(2), 149-170. Van Der Vlist, F., Helmond, A., & Ferrari, F. (2024). Big AI: Cloud infrastructure dependence and the industrialisation of artificial intelligence. Big Data & Society, 11(1), 20539517241232630. Burkhardt, S., & Rieder, B. (2024). Foundation models are platform models: Prompting and the political economy of AI. Big Data & Society, 11(2), 20539517241247839. Abokhodair, N., Skop, Y., Rüller, S., Aal, K., & Elmimouni, H. (2024). Opaque algorithms, transparent biases: Automated content moderation during the Sheikh Jarrah Crisis. First Monday. Diakopoulos, N., H. Cools, N. Helberger, C. Li, E. Kung, and A. Rinehart. 2024. Generative AI in Journalism: The Evolution of Newswork and Ethics in a Generative Information Ecosystem. Porlezza, C. (2024). The datafication of digital journalism: A history of everlasting challenges between ethical issues and regulation. Journalism, 25(5), 1167-1185. Dierickx, L., Lindén, C.G., Opdhal, A.L. (2023). Automated Fact-Checking to Support Professional Practices: Systematic Literature Review and Meta-Analysis. International Journal of Communication. 2023, 17, 5170-5190. Papaevangelou C., Rebillard F., Smyrnaios N., (2024). De l’internet à l’IA, bis repetita entre médias et géants du numérique ? La revue européenne des médias et du numérique, no 71, 107-118. Pettineo C. (2024). Les médias face à l'intelligence artificielle : 20 chartes passées au crible. La revue des médias.
|