
L'image a été générée par une intelligence artificielle
L’organisation Jonction, en partenariat avec le Forum sur l'Information et la Démocratie, a publié son rapport, conduit par sept (7) experts sénégalais, sur l’utilisation de l'intelligence artificielle (IA) par les médias. Ce rapport met l'accent sur l'impact de l'IA dans les pratiques médiatiques, en soulignant les avantages et les défis auxquels sont confrontés les professionnels de l’information à l’ère numérique.
Dans ce document, il est indiqué comment les professionnels des médias utilisent l'IA dans leur production. Cela inclut « la recherche de sujets et d’analyses, ainsi que la préparation du contenu jusqu’à sa diffusion. »
Cependant, l’utilisation de l’IA soulève des interrogations : l'éthique ou encore la régulation qui nécessitent une attention particulière de la part des acteurs du secteur des médias. Parmi ces enjeux figure la « protection des données et des sources ou encore la fiabilité du contenu ». De plus, « le manque de traçabilité des contenus générés par l’IA » soulève des questions concernant « les droits d’auteur ». Il est important que les médias respectent les droits de propriété intellectuelle et que la provenance des informations soit clairement indiquée.
Pour les experts, Il est nécessaire d’instaurer une rémunération pour les plateformes de presse en ligne sur lesquelles les outils d’IA se basent pour trouver l’information demandée par les utilisateurs; D'où l'importance de souligner l’utilisation des outils d’IA développés au Sénégal. C’est l’occasion de les inviter à veiller à l’application des principes qui encadrent la vie privée dès leur conception. Cela devient encore plus urgent si ces outils utilisent des IA existantes telles que Claude, Lama ou GPT. Il est donc essentiel de définir la chaîne de responsabilité et de s'assurer de la protection des données des utilisateurs.
Le rapport recommande plusieurs actions pour garantir une utilisation éthique et responsable de l’IA dans les médias : établir des règles ou chartes éthiques pour guider l’utilisation de l’IA, en mettant l'accent sur l’éthique journalistique.
La Charte de Paris sur l’IA et le journalisme offre un cadre de référence essentiel pour les professionnels des médias, qui doit inclure : la priorité à l’humain, l’évaluation indépendante des systèmes d’IA, la responsabilité des médias, la transparence sur l’utilisation de l’IA, la personnalisation du contenu, et le renforcement des capacités des journalistes. Enfin, le rapport accorde une partie importante à la démarche de certification volontaire que les organes de presse devraient s’imposer.
Les journalistes doivent aussi être formés aux outils d’IA et aux implications éthiques qui en découlent, recommandent les experts. Un renforcement de leurs compétences techniques et éthiques est capital pour une utilisation responsable de l’IA dans le journalisme.
Dans ce document, il est indiqué comment les professionnels des médias utilisent l'IA dans leur production. Cela inclut « la recherche de sujets et d’analyses, ainsi que la préparation du contenu jusqu’à sa diffusion. »
Cependant, l’utilisation de l’IA soulève des interrogations : l'éthique ou encore la régulation qui nécessitent une attention particulière de la part des acteurs du secteur des médias. Parmi ces enjeux figure la « protection des données et des sources ou encore la fiabilité du contenu ». De plus, « le manque de traçabilité des contenus générés par l’IA » soulève des questions concernant « les droits d’auteur ». Il est important que les médias respectent les droits de propriété intellectuelle et que la provenance des informations soit clairement indiquée.
Pour les experts, Il est nécessaire d’instaurer une rémunération pour les plateformes de presse en ligne sur lesquelles les outils d’IA se basent pour trouver l’information demandée par les utilisateurs; D'où l'importance de souligner l’utilisation des outils d’IA développés au Sénégal. C’est l’occasion de les inviter à veiller à l’application des principes qui encadrent la vie privée dès leur conception. Cela devient encore plus urgent si ces outils utilisent des IA existantes telles que Claude, Lama ou GPT. Il est donc essentiel de définir la chaîne de responsabilité et de s'assurer de la protection des données des utilisateurs.
Le rapport recommande plusieurs actions pour garantir une utilisation éthique et responsable de l’IA dans les médias : établir des règles ou chartes éthiques pour guider l’utilisation de l’IA, en mettant l'accent sur l’éthique journalistique.
La Charte de Paris sur l’IA et le journalisme offre un cadre de référence essentiel pour les professionnels des médias, qui doit inclure : la priorité à l’humain, l’évaluation indépendante des systèmes d’IA, la responsabilité des médias, la transparence sur l’utilisation de l’IA, la personnalisation du contenu, et le renforcement des capacités des journalistes. Enfin, le rapport accorde une partie importante à la démarche de certification volontaire que les organes de presse devraient s’imposer.
Les journalistes doivent aussi être formés aux outils d’IA et aux implications éthiques qui en découlent, recommandent les experts. Un renforcement de leurs compétences techniques et éthiques est capital pour une utilisation responsable de l’IA dans le journalisme.