Commençons tout d’abord par parler du “Content ID” de Google concernant le droit d’auteur. C’est un outil aide les titulaires de droits d’auteur à identifier et à gérer leur contenu sur YouTube. Les vidéos publiés sur YouTube sont comparées à une base de données de fichiers fournis par les propriétaires de contenu.
Oui le droit d’auteur mais non
Cela semble être une bonne initiative, mais ce Content ID peut aussi être défini comme cela : “Ce système aboutit en place d’une police privée du droit d’auteur, s’exerçant en dehors du contrôle de la justice et dérivant graduellement vers un système de censure aveugle.”
C’est tout de suite moins sympa.
Certes ce système permet à des robots de détecter plus facilement du contenu dupliqué et reuploadé sur le web. Prenons l’exemple des films entiers sur YouTube. Warner n’aura pas à embaucher des personnes devant chercher à longueur de journée les Harry Potter pour signaler les utilisateurs monétisant la vidéo. Ils pourront décider de s’en approprier les revenus ou de supprimer le contenu.
Mais d’un autre côté un robots ne fait pas dans la dentelle. Cela pose un tout autre problème pour les parodies originales découlant du droit à la caricature. Article L122-5 du Code de la Propriété intellectuelle. Pour lui la parodie ça n’existe pas. On ne peut pas utiliser 5 secondes du film Avengers dans une vidéo originale de 40 minutes pour illustrer ses propos. Cela donne le droit à Disney de s’en approprier tous les droits de publication et de monétisation.
Un système juridique aux petits oignons
Il est possible de contester la décision du Content ID et de gérer ce litige en ligne. Sous la forme d’un procès nous trouverons d’un côté le créateur de la vidéo, de l’autre Disney et l’affaire sera jugée par DISNEY… Du point de vue objectivité nous repasserons.
Créateurs de contenu hors la loi
Selon cette logique tout personne créant du contenu justifiant un caractère critique, polémique, pédagogique, scientifique ou d’information de l’oeuvre peut se faire sanctionner pour viole de la propriété intellectuelle, théoriquement 3 ans d’emprisonnement et 300.000€ d’amende.
Evidemment nous n’en sommes pas encore arrivé à ce genre de situation car nous sommes protégé par la culture du web. Utiliser des œuvres pour les analyser ou les transformer fait parti de l’ADN d’internet. Mais pour combien de temps…
Bon je passe sur le fait que le titre est généraliste et que l’article ne s’intéresse qu’au cas YouTube. J’aimerai revenir sur un point. YouTube est une plateforme privée. Quand YouTube censure une vidéo pour quelque motif que ce soit, il ne porte pas atteinte à la liberté d’expression, il indique juste que ce contenu ne lui convient pas. Il est chez lui (sur son domaine, littéralement) et interdit le contenu sur *sa* plateforme. L’auteur est toujours libre le tenter sa chance sur DailyMotion, WAT, RuTube, YouPorn, etc.
Centraliser les données des millions de personnes en un point du réseau, ça a des effets pervers. YouTube “protège” le copyright, Facebook censure les seins nus et Twitter censure un peu au hasard. Ils sont chez eux, ils ont droit de vie et des mort (du contenu) sur leurs terres.
Pardon Lénaïc d’avoir mis si longtemps à valider ton commentaire. Il y a tellement de spam !
Tu soulèves un point intéressant, lorsque l’on devient éditeur de contenu, peut être devrions nous dire distributeur, ne devons nous pas dans le même temps faire notre une déontologie de l’édition ?
Soit on considère que les plateformes comme YouTube sont des solutions techniques d’hébergement de contenu. Auquel cas, elles ne retirent du contenu que sur décision de justice.
Soit on considère que ce sont des éditeurs, auquel cas, elles ont une charte éditoriales et on retombe sur la législation des journaux : si un journal publie un article manifestement illégal, c’est le journal qui prend, pas le journaliste.
En droit Français, YouTube et ses consœurs sont considérées comme des éditeurs de contenus. C’est pour ça qu’ils ont des politiques actives de modération.
La première solution a de quoi séduire, mais bizarrement, le fait qu’il faille passer par la justice pour censurer tout contenu raciste, homophobe, etc. ne convient pas à nos législateurs. Selon eux, la justice n’est pas assez réactive. Ils préfèrent qu’on censure *a priori*, quitte a retirer dans le même temps les contenus du type “La xenophobie, c’est pas bien” qui auront été signalés par le robot qui parcourt le contenu.
La réaction de YouTube dans ce contexte est assez logique. On fourni aux ayants droits des outils de censure, et ça les calmes pour un temps. On reste sur du lobbyisme scolaire et un peu bas du front, mais visiblement ça fait le taf.
Du coup, ça engendre des dérives à des échelles locales, trop insignifiantes pour que YouTube s’y penche au cas par cas. (cf. https://twitter.com/DamDamOfficial/status/867388229754003457 )