Le terme couramment utilisé de « fake news » renvoie à la conception et à la divulgation d’informations volontairement erronées portant sur un ou plusieurs sujets considérés comme publics.
Bien que le recours à ce type de procédés ait toujours existé, l’impact, la fréquence de diffusion et même la qualité de ces fausses informations se sont trouvés fortement amplifiés par le développement des réseaux sociaux et l’utilisation massive de ceux-ci par toutes les catégories de la population.
On note à ce jour l’existence de certaines dispositions de nature juridique destinées à encadrer les fausses informations. Le premier texte à jouer ce rôle est la loi du 29 juillet 1881 sur la liberté de la presse. L’article 27 de cette loi dispose que « la publication, la diffusion ou la reproduction, par quelque moyen que ce soit, de nouvelles fausses, de pièces fabriquées, falsifiées ou mensongèrement attribuées à des tiers lorsque, faite de mauvaise foi, elle aura troublé la paix publique, ou aura été susceptible de la troubler, sera punie d’une amende de 45 000 euros.
Les mêmes faits seront punis de 135 000 euros d’amende, lorsque la publication, la diffusion ou la reproduction faite de mauvaise foi sera de nature à ébranler la discipline ou le moral des armées ou à entraver l’effort de guerre de la Nation[i]. »
En outre, l’article L.52-1 du code électoral prévoit que « pendant les six mois précédant le premier jour du mois d’une élection et jusqu’à la date du tour de scrutin où celle-ci est acquise, l’utilisation à des fins de propagande électorale de tout procédé de publicité commerciale par la voie de la presse ou par tout moyen de communication audiovisuelle est interdite[ii]. »
De manière moins directe, on peut également supposer que l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) visant à définir la responsabilité des prestataires techniques en cas de diffusion de contenus illicites pourrait trouver à s’appliquer sous certaines conditions. Selon cet article, « les personnes dont l’activité est d’offrir un accès à des services de communication au public en ligne informent leurs abonnés de l’existence de moyens techniques permettant de restreindre l’accès à certains services ou de les sélectionner et leur proposent au moins un de ces moyens.
2. Les personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d’écrits, d’images, de sons ou de messages de toute nature fournis par des destinataires de ces services ne peuvent pas voir leur responsabilité civile engagée du fait des activités ou des informations stockées à la demande d’un destinataire de ces services si elles n’avaient pas effectivement connaissance de leur caractère illicite ou de faits et circonstances faisant apparaître ce caractère ou si, dès le moment où elles en ont eu cette connaissance, elles ont agi promptement pour retirer ces données ou en rendre l’accès impossible.
(…) 3. Les personnes visées au 2 ne peuvent voir leur responsabilité pénale engagée à raison des informations stockées à la demande d’un destinataire de ces services si elles n’avaient pas effectivement connaissance de l’activité ou de l’information illicites ou si, dès le moment où elles en ont eu connaissance, elles ont agi promptement pour retirer ces informations ou en rendre l’accès impossible[iii]. »
L’application de cet article ne serait toutefois envisageable que dans l’hypothèse où la communication d’une « fake new » deviendrait un acte illicite, ce qui ne correspond pas à la situation actuelle du droit eu égard à la liberté d’expression. Cela pourrait cependant évoluer de manière plus stricte si l’on s’en tient aux propos que le Président de la République Emmanuel Macron a adressé à la presse française dans le cadre du discours qu’il a prononcé le 3 janvier 2018[iv]. Il a en effet annoncé qu’un « texte de loi sera prochainement déposé à ce sujet ». Cette loi viserait le contexte des périodes électorales et imposerait aux plateformes « des obligations de transparence accrue sur tous les contenus sponsorisés afin de rendre publique l’identité des annonceurs et de ceux qui les contrôlent, mais aussi de limiter les montants consacrés à ces contenus ». De plus, la propagation d’une fausse nouvelle impliquerait la possibilité de saisir le juge des référés afin de « supprimer le contenu mis en cause, de déréférencer le site, de fermer le compte utilisateur concerné, voire de bloquer l’accès au site internet ». De même, Emmanuel Macron explique que « les pouvoirs du régulateur seront (…) profondément repensés (…) pour lutter contre toute tentative de déstabilisation par des services de télévision contrôlés ou influencés par des Etats étrangers. Cela permettra au CSA repensé (…) de refuser de conclure des conventions avec de tels services, en prenant en compte tous les contenus édités par ces services, y compris sur internet. »
Néanmoins, les outils de nature informatique permettant de générer des « fake news » se développent en parallèle de la règlementation assignée à leur prohibition, de manière corrélative à l’accroissement des nouvelles technologies dont fait partie l’intelligence artificielle.
En guise d’exemple notoire, on peut citer le projet financé par Samsung, Google, Facebook, Intel et UW Animation Research Labs. Il s’agit de la création par des chercheurs de l’Université de Washington d’une technique de machine learning (apprentissage automatique) permettant de générer des bouches réalistes à partir d’éléments audios du discours d’un individu[v]. Par la suite, ces bouches sont intégrées au visage de ce même individu, qui donne alors l’impression de tenir exactement le même discours que celui qui aura été obtenu par l’intermédiaire du fichier audio.
Les spécialistes à l’origine de ces algorithmes ont démontré la capacité de leur projet en réalisant une vidéo de l’ancien Président des Etats-Unis Barack Obama à partir d’extraits obtenus dans de précédents fichiers audiovisuels[vi]. Comme l’explique l’article rapportant la nouveauté sur le site de l’Université de Washington, le résultat est non seulement surprenant, mais permet en plus de franchir l’obstacle de la uncanny valley (la vallée de l’étrange), concept développé par le roboticien japonais Masahiro Mori qui explique que lorsqu’un robot (ou ici un système informatique) s’apparente de plus en plus à un être humain, ses imperfections n’en sont que plus flagrantes et dérangeantes.
La première inquiétude découlant de l’observation de ces algorithmes concerne une éventuelle utilisation de cette technologie à des fins politiques, notamment dans l’hypothèse de la création de fausses informations qui deviendraient alors extrêmement difficiles à déceler.
Cependant, il convient pour l’instant de relativiser ce risque dans la mesure où il est actuellement impossible de faire tenir à une personne les propos d’une autre, ce qui relève d’un choix délibéré des chercheurs.
[i] https://www.legifrance.gouv.fr/affichTexteArticle.do?idArticle=LEGIARTI000006419726&cidTexte=LEGITEXT000006070722
[ii] https://www.legifrance.gouv.fr/affichCode.do;jsessionid=CE7A191AE9C557D22A1704AA2DF9BBCF.tplgfr40s_2?idSectionTA=LEGISCTA000006148458&cidTexte=LEGITEXT000006070239&dateTexte=20180108
[iii] https://www.legifrance.gouv.fr/affichTexteArticle.do?idArticle=JORFARTI000002457442&cidTexte=JORFTEXT000000801164
[iv] https://www.youtube.com/watch?v=9tRWPMsI4es
[v] http://www.washington.edu/news/2017/07/11/lip-syncing-obama-new-tools-turn-audio-clips-into-realistic-video/