« Quel impact de l’IA sur les filières du cinéma, de l’audiovisuel et du jeu vidéo ? », le CNC publie une étude d’ampleur.
Dans le cadre de son observatoire de l’intelligence artificielle (IA) dans le domaine de l’image, le Centre National du Cinéma et de l’image animée (CNC) a publié une étude, réalisée en collaboration avec Bearing Point, visant à (i) analyser les impacts de l’IA sur les secteurs du cinéma, de l’audiovisuel et du jeu vidéo et à (ii) cartographier les usages actuels et potentiels de l’IA à chaque étape du processus de création et de diffusion d’une œuvre.
Ce rapport – accessible ici – offre une perspective étendue sur l’évolution des technologies qui transforment déjà ces secteurs de manière significative. La lecture attentive de la cartographie détaillée offre une véritable compréhension des techniques impliquées, que ce soit aux stades du développement, du tournage, de la post-production, de la diffusion et ce jusqu’à la gestion de catalogue. A noter que le rapport relève qu’il n’y a en revanche pas d’application directe de l’IA identifiée à date pour l’exploitation en salles.
Parmi les nombreux axes d’analyse, le rapport relève six enjeux juridiques et éthiques liés au développement et à l’utilisation de l’IA générative, à savoir :
- La transparence des bases d’entraînement des IA génératives, plus spécifiquement les enjeux sur l’autorisation, la rémunération des auteurs et producteurs, ainsi que sur l’équilibre complexe entre compétitivité des éditeurs IA, diversité des données d’entraînement et protection des droits d’auteur ;
Il s’agit d’un point crucial des modèles d’IA dont l’opacité peut être source de risque pour les titulaires de droit. L’analyse détaillée des conditions générales d’utilisation s’avère dès lors un pré-requis avant toute utilisation préalable de ces solutions ;
- le droit d’utilisation des outputs d’une IA générative, plus spécifiquement les risques de contrefaçon potentielle liés à l’utilisation des résultats générés par une IA générative ;
- les droits de la personnalité des comédiens et doubleurs, notamment l’incertitude des producteurs quant à la possibilité de réutiliser l’image ou la voix des comédiens qui ont déjà signé des clauses de buyout standard. Rappelons qu’aux Etats-Unis, des accords ont été conclus par les syndicats d’acteurs prévoyant pour certains cas un consentement préalable et le versement d’une rémunération spécifique en cas d’utilisation de leur « réplique numérique » ;
- la confidentialité des données ingérées par l’IA, plus spécifiquement les craintes concernant la réutilisation potentielle par des tiers des données ingérées ou produites par l’IA, ce qui se traduit par une demande croissante de solutions offrant une isolation complète pour prévenir les fuites de données et la concurrence. A nouveau, l’analyse détaillée des conditions d’utilisation des systèmes d’IA est nécessaire, compte-tenu des enjeux en termes de sécurité et de confidentialité des données « nourrissant » l’IA ;
- la protection des œuvres créées avec une IA générative, plus spécifiquement la question de la paternité des œuvres produites qui reste non résolue tant au niveau national qu’international et engendre des incertitudes pour les créateurs avec des décisions divergentes selon les pays.
L’une des premières décisions sur ce sujet a été rendue récemment par le tribunal de Prague.
Dans un litige concernant une création réalisée via DALL-E, le tribunal a jugé que, selon la loi tchèque, le droit d’auteur ne peut être attribué qu’à une personne physique. Ainsi, même si une intelligence artificielle crée une image à partir d’une instruction spécifique donnée par une personne physique, cette image ne peut être considérée comme une œuvre de ladite personne et ne peut donc pas bénéficier de la protection du droit d’auteur. Il s’agit de l’une des premières décisions rendues en la matière en Europe et une attention particulière devra être portée aux futures décisions, notamment françaises ;
- et, enfin, les biais culturels des modèles d’IA générative, plus spécifiquement le fait que ces outils se fondent sur des bases de données initiales et des couches d’entraînement incluant un contrôle humain, présentant inévitablement des biais, accentués par leur origine anglo-saxonne et soulevant ainsi des préoccupations quant à l’introduction de biais culturels ou à une uniformisation culturelle.
Ces points font partie de ceux qui alimentent les débats politiques et législatifs en France, au sein de l’Union Européenne et à l’échelle mondiale, et qui vont faire l’objet de nombreux développements à venir. Dans ce contexte, l’adoption par le Parlement Européen du AI Act le 13 mars dernier marque une étape importante, introduisant notamment des mesures pour concilier le progrès des technologies d’IA et la protection des droits de propriété intellectuelle.
Dans ce contexte, le ministère de la culture a récemment confié deux missions au Conseil Supérieur de la Propriété Littéraire et Artistique (CSPLA). La première consiste à évaluer l’ampleur de l’obligation de transparence prévue dans le AI Act afin de déterminer quelles informations doivent être rendues publiques par les fournisseurs d’IA, permettant ainsi aux titulaires de droits de faire valoir leurs droits. La seconde vise à faire le point sur les mécanismes, propres à chaque secteur, garantissant que les ayants droit voient leurs droits effectivement respectés lorsque leurs œuvres sont utilisées par des fournisseurs d’IA. Les résultats de ces deux missions sont attendus respectivement d’ici la fin de l’année et en 2025.