Vous avez le droit
Vous êtes ici : Accueil » Y’a pas que le droit » INTERNET ET DESINFORMATION

INTERNET ET DESINFORMATION

Contribution au V em colloque de Poissy - Désinformation : tous responsables ? » (11 mars 2006)

D 18 novembre 2008     H 21:05     A Sébastien Canévet     C 0 messages


 Internet : le mirage de la neutralité technique

Il est toujours difficile de parler d’internet. De même que le plus mauvais historien amateur en sait plus aujourd’hui sur la bataille d’Austerlitz que le plus brillant des officiers de Napoléon, il est encore délicat aujourd’hui d’avoir des certitudes sur les mutations engendrées par l’utilisation massive de l’internet sur l’opinion public, sur l’information, sur la désinformation, tant il est difficile de prendre du recul par rapport à cette révolution numérique, qui est tout aussi importante que la révolution de l’imprimerie que notre civilisation a connu voici plus de cinq siècles [1].

Il est également difficile de parler d’internet pour une toute autre raison. Internet n’est pas seulement un média, ou plutôt le support de différents médias, c’est aussi un outil, et un outil qui n’est pas indifférent par rapport au message qu’il véhicule. Alors que l’on peut être un excellent spécialiste du monde de la presse sans savoir comment fonctionne une presse Heidelberg, il en va différemment avec l’internet, tant la technique conditionne ici non seulement la transmission du message, mais aussi sa forme, et peut être même sa nature [2] si l’on en croit Mac Luhan.

C’est ainsi, j’y reviendrai, que si la presse écrite, l’édition, la radio ou la télévision sont des médias « un-tous », ou « quelques uns-tous », l’internet est un média « tous-tous », avec lequel chaque utilisateur peut être à la fois récepteur et émetteur d’informations. Pour autant, la présente intervention ne sera pas un cours d’informatique. Il ne sera fait allusion aux aspects techniques qu’autant que cela sera nécessaire à notre démonstration.

Plutôt qu’une étude construite, complète, fermée et démonstrative, nous avons préféré interroger deux concepts clés, afin de comprendre les relations complexes entre internet, information et désinformation, ce qui servira moins à apporter des réponses qu’à questionner et à favoriser l’échange.

Nous pouvons admettre, en première approximation, que la désinformation a pour objectif d’induire son destinataire en erreur. Il va donc s’agir pour nous de rechercher dans quelle mesure l’échange d’informations sur internet peut favoriser la désinformation, ou au contraire en limiter les conséquences ; bref, d’évaluer l’impact du réseau sur la crédibilité de l’information.

A mon sens, la mesure de cet impact peut se faire à l’aune de deux notions classiques, largement renouvelée actuellement par les spécificités du réseau : la validation de l’information et son opportunité. Nous les examinerons successivement en tentant de définir les conséquences sur la crédibilité de l’information véhiculée par l’internet, comparée aux autres modes de communication.

 VALIDATION

Dépassons le propos de café du commerce selon lequel « Internet est un danger public puisqu’ouvert à n’importe qui pour y dire n’importe quoi » [3] pour affiner un peu l’analyse. On ne peut raisonner de façon si simpliste. Pourtant, cette affirmation abrupte a au moins un mérite : elle condense assez bien la principale idée reçue concernant la fiabilité de l’information sur le réseau. Idée reçue, mais aussi idée simple : facile à comprendre et à accepter. Pourtant, elle ne rend pas compte de la complexité de la réponse à apporter lorsqu’il s’agit de rendre compte de la multiplicité des formes de validation de l’information sur internet, qui s’oppose à l’unicité et à la simplicité apparente des modes de validation qui existent dans les autres médias.

Dans les médias traditionnels, presse, édition, radio, télévision, etc. la validation de l’information obéit au principe habituel de l’organisation hiérarchique, qui gère tous les aspects du fonctionnement des médias, y compris les aspects juridiques [4] . La conférence de rédaction, le comité éditorial ou le comité de lecture, et en dernier ressort le directeur de publication ou l’éditeur, décident ce qu’il convient de publier ou pas. La crédibilité associée aux informations ainsi validées est liées à la qualité du travail de la structure validante.

Aujourd’hui, un certain nombre de sites web importants fonctionnent en ayant dupliqué ce système traditionnel de validation en utilisant le filtre du comité de lecture, ce qui fait qu’il est parfois plus difficile d’y publier que dans bien des publications papier. Mais, aux cotés de ces clones numériques de la validation traditionnelles, d’autres modes de validation de l’information ont vu le jour en mettant en oeuvre les caractéristiques du réseau. Plutôt que de nous abîmer en considérations théoriques abstruses, nous prendrons un exemple qui semble particulièrement parlant, avant d’essayer d’en tirer quelques conclusions.

Wikipedia [5] est une encyclopédie internationale créée en janvier 2001. Elle compte actuellement des versions dans plus de 200 langues, totalisant plus de 3 millions d’articles [6]. Mais la wikipedia n’est pas une encyclopédie comme les autres : ce qui fait sa particularité, c’est qu’il s’agit d’une encyclopédie écrite par ses lecteurs. En effet, elle fonctionne à l’aide d’un programme nommé « wiki », qui permet au lecteur de modifier facilement le texte qu’il a sous les yeux. Diverses procédures techniques permettent de favoriser le travail de groupe en informant les autres usagers du wiki des modifications effectuées.

Par exemple, toutes les versions successives d’un même article sont accessibles, une liste des dernières modifications est disponible en temps réel, etc... Le résultat est impressionnant : trois millions d’articles en quatre ans. Bien entendu, ce succès et ce mode de fonctionnement inhabituel n’a pas manqué d’intriguer ni de susciter la critique quant à la qualité des textes résultant de cette nouvelle modalité d’écriture collective.

C’est ce qu’a essayé de démontrer récemment dans une émission de télévision grand public, la journaliste Ariane Massenet [7], en modifiant, en direct sur la chaîne de télévision française « Canal Plus » l’article de la wikipédia francophone sur Elvis Presley, sur lequel elle a annoncé son prochain concert à l’Olympia, avant de conclure qu’il s’agit là d’un gadget complètement dépourvu de fiabilité. Ce que cette journaliste a en revanche oublié de préciser, est-ce d’ailleurs par incompétence ou par malhonnêteté [8], c’est que moins d’une minute plus tard, son « erreur » a été corrigée par un wikipédien anonyme. Dans ce cas précis, le système d’élaboration collaboratif de l’information a montré son efficacité, même si la journaliste a délibérément choisi de ne pas en faire état, et l’on peut se poser la question de savoir où se trouve la désinformation, à Canal Plus ou dans la wikipédia ?

Heureusement, d’autres se sont interrogés plus subtilement sur ce phénomène. Ainsi, Daniel Shneidermann a-t-il affirmé que « (...) cette séduction ne dissipe pas les inquiétudes que suscite l’émergence possible d’un nouvel organe de référence parfaitement anonyme, et donc vulnérable à toutes les manipulations. Qui aura le temps et l’énergie nécessaires pour actualiser, jour après jour, Wikipédia ? Les plus impliqués, les plus militants, les mieux organisés. » [9]

La question est légitime, et j’avoue que je n’ai pas de réponse définitive à fournir. Mais la wikipedia n’est pas un « produit » terminé, il s’agit d’une expérience qui cherche à prouver le mouvement en marchant, qui cherche par la pratique à valider un certain nombre d’hypothèses. Le projet suppose que plus le nombre d’utilisateur sera élevé, plus il y aura de contributeurs, qu’il y a plus d’usagers de l’internet qui veulent construire quelque chose que d’inconscients qui veulent détruire le résultat des efforts des autres, que plus la wikipedia deviendra intéressante et utile, moins ses utilisateurs seront portés à tolérer le vandalisme, etc...

Le risque principal est que les articles issus de cette intelligence collective soient un tissu de banalités et de lieux communs les plus couramment admis. J’ai l’expérience inverse, il est probable que la plupart des utilisateurs qui co-rédigent la wikipedia ne contribuent qu’aux articles pour lesquels ils se sentent une certaine compétence et se gardent bien de toucher aux autres textes. Je le répète, la wikipedia n’est qu’une expérience, mais cette expérience est peut être en train de réussir.

Pour revenir à la désinformation, parmi les éléments qui la composent figure en bonne place l’intoxication de l’auteur, et là, je me demande, sans avoir de réponse préfabriquée à vous fournir, s’il est plus facile d’intoxiquer dix mille co-auteurs ou un seul.

Quel que soit l’avenir de la wikipedia, j’aurai au moins le plaisir d’avoir essayé un autre modèle de validation de l’information que celui que proposait Dominique Wolton voici quelques années : un conseil mondial de journalistes, seul habilité à décider de ce qu’il conviendrait de publier ou pas sur l’internet.
Opportunité

Depuis cinq siècles que l’imprimerie existe, la notion de crédibilité est devenue intimement liée à celle de publication. Un document publié acquière, presque par nature, une certaine légitimité, qui, dans l’inconscient, se rapproche de la crédibilité parce qu’il a été jugé opportun de le publier, comme si la décision de publication était toujours la conséquence nécessaire de sa qualité. Pourtant , divers éléments peuvent influencer la décision de publier ou pas une information. Ces considérations, qui n’ont pas toujours grand chose à voir avec l’intérêt d’un texte, peuvent aussi avoir une influence déterminante dans la décision de publier ou pas. Elles tournent toutes autour de la question financière, tant il est vrai que l’argent est le nerf de la guerre, même si cette guerre est médiatique.

Premier exemple d’influence de la finance sur l’opportunité de publier : la rentabilité. Je ne résiste pas au plaisir de narrer ici deux anecdotes issues de l’histoire de la littérature : Marcel Proust fut obligé de publier à compte d’auteur10 « Du côté de chez Swann » [10] après qu’André Gide [11] , alors chez Gallimard ait refusé ce texte. Idem d’Umberto Eco, qui ayant essuyé un refus de plus de trente éditeurs pour « Le Nom de la Rose » finit par obliger l’éditeur des thèses de ses étudiants à publier son roman, avec le succès que l’on sait...

A l’évidence, ces refus eurent pour cause un doute sur la rentabilité de leur publication, leur qualité n’était pas en cause... ce qui nous ramène à la publication sur internet. En effet, la publication d’informations sur la toile se faisant à un coût extrêmement faible eut égard au nombre de lecteurs que l’on peut « toucher », la question de la rentabilité de la publication se dissocie donc naturellement de celle de l’opportunité de publier, ce qui n’est pas le cas dans le monde de l’édition papier. Il faut savoir qu’aujourd’hui les critères de rentabilité dans le monde de l’édition sont de plus en plus draconiens, chaque livre devant être rentable, alors que l’on admettait traditionnellement qu’un livre rentable puisse compenser les pertes engendrées par la publication d’un ouvrage intéressant mais dénué de rentabilité.

Face à ces contraintes, internet permet en revanche de publier à un coût dérisoire [12] ce qui a au moins pour mérite de dissocier effectivement la question de l’opportunité de la publication de la question financière. Dès lors que la décision de publier n’est plus contingentée par son coût, la conséquence immédiate est bien évidemment l’augmentation du volume des informations publiées. Il devient alors possible de publier non seulement le résultat d’une recherche, d’une réflexion mais aussi l’ensemble des sources utilisées, des résultats bruts sur lesquels l’auteur s’est fondé ou encore les différents stades de rédaction [13].

Certains ont pu craindre que la conséquence de cet afflue d’informations conduise qu’à un « bruit » informationnel, qui finisse par noyer la « bonne « information au sein de la « mauvaise ». C’est ainsi que l’on entend de plus en plus souvent affirmer qu’il y a TROP d’informations sur internet. Cette affirmation laisse rêveur : peut-il y avoir TROP de livres dans une bibliothèque ? TROP de définitions dans un dictionnaire ? Trop de notes dans une symphonie [14] ? La question n’est pas tant celle de la masse d’information, que celle de la recherche de celle ci. Celui formule ce reproche traduit sans doute d’avantage son défaut de maîtrise des nouveaux outils de recherche, cause de son désarroi, que la réalité d’une surabondance d’information

. Si il est évident que la recherche d’une information précise sur le réseau à l’aide d’un moteur de recherche demande une certaine habitude ; à vrai dire rapidement acquise, il est probable que le citoyen informé et curieux, qui va au delà de la simple prise de connaissance de la pensée de l’auteur pour vérifier ses sources, dépasse le stade de la confiance

 Conclusion

Pour conclure, une certitude et une hypothèse.

La certitude, c’est que l’information, et sa soeur ennemie la désinformation, ne se font déjà plus comme avant l’internet et ne se feront plus jamais comme avant cette révolution numérique.

L’hypothèse c’est que, grace à l’internet, il est peut être plus facile aujourd’hui pour le citoyen qui veut bien s’en donner la peine, de vérifier l’information, de la croiser avec d’autres sources, voire de contredire l’information officielle.

Si nous ne nous contentons pas d’utiliser internet seulement pour y acheter nos vacances, et de demeurer sous perfusion télévisuelle le reste du temps, bref, si nous ne nous contentons pas d’être des consommateurs, mais que nous essayons aussi d’être des citoyens, alors il se peut que l’internet nous permette parfois de débusquer celui qui cherche à nous désinformer, et de constater, comme disait Jean de la Fontaine, que « la queue du rat lui sortait encore de la bouche lorsqu’il jura ne pas l’avoir mangé ».
Documents joints

 Notes

[1] Même si l’internet est maintenant bien « installé » dans la société française par rapport à ce qui se passait il y a dix ans, les mouvements sociaux sont encore importants. Ainsi, le passage d’une cinquantaine de milliers d’utilisateurs en France en 1995 à près de vingt cinq millions aujourd’hui ne s’est-il pas fait de façon homogène dans l’ensemble de la société.

[2] Faute d’avoir investit le temps nécessaire à cette réflexion et cet apprentissage, certains ont pu écrire des choses qui, à cause de leur réputation passée, ont pu séduire et rassurer temporairement en affirmant faussement que l’internet ne changeait rien ni aux forces en présence ni aux habitudes. Nous pensons particulièrement à « Internet et après ? une théorie critique des nouveaux médias » par Dominique Wolton, (Flammarion, mars 2000) dont la vacuité conceptuelle est surprenante de la part d’un spécialiste des médias et, dans une moindre mesure, de « Internet, l’inquiétante extase » par Alain Finkelkraut et Paul Soriano (Mille et une nuit, mars 2001), dans lequel les deux auteurs ont du mal à voir dans le réseau des réseaux autre chose qu’un immense supermarché mondial aux mains des multinationales.

[3] Françoise Giroud, dans sa chronique au Nouvel Observateur.

[4] En effet, la loi du 29 juillet 1881 « sur la liberté de la presse » organise la responsabilité sur le modèle hiérarchique pyramidal classique : au premier chef le directeur de publication, à défaut l’auteur, puis l’imprimeur, le diffuseur...

[5] www.wikipedia.org pour la page d’accueil internationale, et pour la version française fr.wikipedia.org.

[6] Dont près de 250.000 dans la seule version française apparue seulement en 2002, à comparer avec les 300.000 articles de l’Universalis.

[7] Sur cette « affaire », voir « Quand les journalistes prennent les wikipédiens pour des femmes de ménage », par Jean-Baptiste Soufron, http://soufron.typhon.net/article.php3 ?id_article=105

[8] La journaliste savait en fait que les wikipédiens corrigeaient rapidement ses modifications malencontreuses. En effet, celle ci avait testé tout l’après midi le système en introduisant volontairement des erreurs, qui étaient aussitôt corrigées. Le mode de fonctionnement de la wikipédia fait en sorte que toutes les versions successives d’un article donné sont archivées, chacun peut donc aujourd’hui encore vérifié les intrusions de cette personne en consultant l’historique de cet article. Voir Jean-Baptiste Soufron, op. cit.

[9] Dans sa diligente rubrique « Wikipedia, ses espoirs, ses menaces, », Libération vendredi 14 octobre 2005

[10] Ce n’est qu’à cette condition, l’exonérant de tout risque financier, que Bernard Grasset accepta le texte.

[11] Qui reconnaîtra son erreur deux ans plus tard dans les termes suivants « « "Le refus de ce livre restera la plus grande erreur de la NRF, et - car j’ai la honte d’en être pour beaucoup responsable - l’un des regrets, des remords, les plus cuisants de ma vie."

[12] Ainsi, à titre de pur exemple de fait, l’auteur de ces lignes publie un site littéraire (http://www.sherlock-holmes.org) qui accueille chaque jour entre 1000 et 1500 visiteurs pour un coût annuel d’environ 40 euros.

[13] L’opportunité de publier ces brouillons est variable. Si elle n’est guère apparente pour un texte ayant un auteur unique, elle prend en revanche tout son sens dès lors qu’il s’agit par exemple d’un texte issu d’une rédaction collective, par exemple un article de la wikipedia.

[14] Allusion aux dialogues du Film Amadeus, de Milos Forman, dans lesquels le Prince adresse ce reproche au musicien.

Un message, un commentaire ?
modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message