La présence ou la possibilité d’usage de l’IA dans les médias est une réalité.
Il apparait que le débat doive s’orienter vers des mesures à prendre pour une absorption harmonieuse de cela. Par la définition de procédures internes pour les professionnels et par la transparence dans la relation avec les publics, d’une part, par l’établissement à l’international de règles applicables aux médias et aux développeurs des IA, d’autre part.
Si pour le premier aspect, des chartes sont élaborées ici ou là par des médias. Il convient de veiller à les harmoniser et à en faire de bonnes pratiques à retenir par tous.
Pour le deuxième aspect les enjeux portent sur la possibilité d’information et d’identification automatique des productions des IA par ceux qui y accèdent ou qui les reçoivent et la protection de tout ce qui peut ouvrir à des droits moraux ou intellectuels.
En effet, pour les cas d’usage comme un simple outil sur commande sans implication de droits (comme correction grammaticale ou orthographique, édition de statistiques d’audiences, recommandations d’articles ou de liens de vidéos ou d’audios, veille thématique, comptage de données - résultats élections ou autres compétitions, audiences, recommandations …-, analyse et compréhension du comportement des usagers…): il faut imposer la vérification par des professionnels avant de les adresser aux publics.
En cas d’usages avec plus d’autonomie sur des sujets potentiellement a droits (comme traduction ou transcription, génération de version dérivée ou conversion audio, vidéo ou texte de productions de professionnels, éléments factices complétant ou illustrant des créations humaines, assistance pour l’édition d’images, d’audios, de dépêches, de post, de newsletters…) : Il faut non seulement la supervision des résultats par des professionnels, mais avoir en plus l’information des publics sur l’utilisation d’une IA.
Pour l’usage en génération de contenus (comme production entièrement automatisée, résumé de sources fiables, de conversions ou de transcriptions, clonage audio - voix animateurs ou journalistes …- ou vidéo - avatars …-, transcription ou traductions autonomes de contenus , analyse, synthèse ou refonte automatique de contenus – archives y compris-, génération de versions, débats ou échanges multilingues …) : il convient d’imposer, par les organisations ou associations regroupant des médias, le contrôle professionnel ou la réduction au rôle d’IA assistante, un usage limité au strict nécessaire, l’information des publics sur la production par IA mais surtout œuvrer pour la mise en place, internationalement reconnue, de marqueurs embarqués transparents de ce type de produits.
Guila THIAM
Il apparait que le débat doive s’orienter vers des mesures à prendre pour une absorption harmonieuse de cela. Par la définition de procédures internes pour les professionnels et par la transparence dans la relation avec les publics, d’une part, par l’établissement à l’international de règles applicables aux médias et aux développeurs des IA, d’autre part.
Si pour le premier aspect, des chartes sont élaborées ici ou là par des médias. Il convient de veiller à les harmoniser et à en faire de bonnes pratiques à retenir par tous.
Pour le deuxième aspect les enjeux portent sur la possibilité d’information et d’identification automatique des productions des IA par ceux qui y accèdent ou qui les reçoivent et la protection de tout ce qui peut ouvrir à des droits moraux ou intellectuels.
En effet, pour les cas d’usage comme un simple outil sur commande sans implication de droits (comme correction grammaticale ou orthographique, édition de statistiques d’audiences, recommandations d’articles ou de liens de vidéos ou d’audios, veille thématique, comptage de données - résultats élections ou autres compétitions, audiences, recommandations …-, analyse et compréhension du comportement des usagers…): il faut imposer la vérification par des professionnels avant de les adresser aux publics.
En cas d’usages avec plus d’autonomie sur des sujets potentiellement a droits (comme traduction ou transcription, génération de version dérivée ou conversion audio, vidéo ou texte de productions de professionnels, éléments factices complétant ou illustrant des créations humaines, assistance pour l’édition d’images, d’audios, de dépêches, de post, de newsletters…) : Il faut non seulement la supervision des résultats par des professionnels, mais avoir en plus l’information des publics sur l’utilisation d’une IA.
Pour l’usage en génération de contenus (comme production entièrement automatisée, résumé de sources fiables, de conversions ou de transcriptions, clonage audio - voix animateurs ou journalistes …- ou vidéo - avatars …-, transcription ou traductions autonomes de contenus , analyse, synthèse ou refonte automatique de contenus – archives y compris-, génération de versions, débats ou échanges multilingues …) : il convient d’imposer, par les organisations ou associations regroupant des médias, le contrôle professionnel ou la réduction au rôle d’IA assistante, un usage limité au strict nécessaire, l’information des publics sur la production par IA mais surtout œuvrer pour la mise en place, internationalement reconnue, de marqueurs embarqués transparents de ce type de produits.
Guila THIAM
Autres articles
-
Tchad : la "tentative de déstabilisation" fait 19 morts, dont 18 assaillants
-
Processus d’immatriculation des motos au Sénégal : les éclairages du Directeur des Transports routiers
-
Chantage et diffusion de vidéos à caractères personnelles : I. Baldé risque 10 ans de prison ferme
-
Différend entre Bocar Samba Dièye et Attijari Bank : le parquet financier ordonne l'ouverture d'une enquête
-
Manifestation des conducteurs de deux-roues : Assane Djigal plaide pour le calme et une prolongation des délais d'immatriculation