Internet : aspect critique

Publié le par Damien

Internet : aspect critique

 

 

 

 

 

Avec la rentrée, je reviens à mon sport favori en tant que formateur auprès d'étudiants de première année : critiquer le web.

 

 

Voici quelques remarques qui peuvent servir aussi à des personnes préparant les concours des bibliothèques. Ces remarques visent dans l'ensemble à montrer que former les jeunes à un usage critique d'Internet devient aussi important que de les habituer à diversifier leurs sources d'information.

 

 

 

 

 

 

 

  1. Critique des outils
  2. Critiques des ressources
  3. Critique des usages

 

 

 

1. Critique des outils

 

 

 

 

 

                    1.1    Le Dieu Google

 

 

 

 

 

Google est le plus célèbre des moteurs de recherche et gère une très grande majorité des requêtes sur le net. Si mal formulée que soit la requête, les moteurs de recherche affichent toujours des milliers de réponses quand les catalogues et les bases de données se taisent. Mais cette abondance cache mal le chaos dasn lequel, souvent, l’internaute perd pied.

En plus d’être un moteur de recherche, Google propose de nombreuses fonctionnalités qui répondent pratiquement tous les besoins informatiques d’une personne privée. Il lui donne les moyens de s’exprimer (chat-blog), de s’organiser (agenda), de s’informer (Google news), de s’exprimer (blog-chat), de se documenter…  Il est donc possible de passer sa vie entière avec Google. Or qu’il s’agisse d’un média (journal, chaîne de télévision) ou d’un outil (moteur de recherche), la situation de dépendance à l’égard d’un prestataire unique contrevient à l’exercice de la démocratie. Pourtant Google prétend œuvrer en faveur de la démocratie culturelle. Cette prétendue « démocratie culturelle » repose en fait sur le principe « un clic, un vote ». L’internaute en suivant un lien, ou en cliquant sur une publicité, ne se situe, ni au niveau de la culture qui est affaire de critique, ni au niveau de la démocratie qui nécessite une confrontation d’idées adverses[1].

 

 

 

 

 

 

1.2           opacité du classement des résultats

 

 

 

 

 

En lançant une requête à partir d’un mot-clé, nous ne sommes pas certains d’obtenir des résultats pertinents par rapport à ce mot-clé, ou pour le moins les liens qui s’afficheront en tête de la première page des résultats ne seront pas forcément ceux qui peuvent répondre aux véritables préoccupations de l’usager. En effet, les mots-clés que nous employons pour lancer des requêtes sur des moteurs de recherche ne sont pas standardisés, comme ceux qu’utilisent les catalogues de bibliothèques. Les moteurs de recherche ne savent pas gérer la polysémie qu’ils recouvrent. « Le sens échappe à Google, qui chiffre mais ne déchiffre pas[2] ». De même qu’elle égare les internautes en quête d’information, la polysémie du langage naturel pose une difficulté pour ceux qui tentent d’indexer leurs propres articles, films ou photos (voir plus loin)

Le nombre d’occurrences dans le site du mot-clé n’explique pas seul l’affichage de ce site parmi les premiers résultats. Dans le « chiffre » de Google (un algorythme maintenu secret), le nombre de visiteurs, le temps que ces visiteurs passent sur le site, le nombre de clics enregistrés sur le site, le nombre de liens qui pointent vers ce site sont également pris en considérations.

 

 

 

 

 

 

          1.3      Positionnement, liens sponsorisés

 

 

 

 

 

Parmi les résultats affichés, certains sont à caractère nettement commercial. Par exemple, le mot « avion » fait venir la boutique en ligne d’Air-France. Cela signifie qu’Air-France a « acheté » à Google le mot-clé « avion ». Le problème est que la distinction entre les sites qui sont sponsorisés et ceux qui ne le sont pas n’est pas toujours bien nette dans l’affichage :

 

 

 

Dans la page ci-dessus, les troisièmes et quatrième liens renvoient à des sites à caractère commercial et ne sont pas distincts quant à leurs contenus des liens sponsorisés répartis entre le bandeau beige et la colonne de droite.

 

 

 

1.4 Protection des données personnelles (publicité contextuelle et espionnage)

 

 

 

 

 

Grâce aux cookies (il s’agit de petits fichiers textes stockés par le navigateur sur le disque dur du visiteur d'un site), un moteur de recherches peut retracer l’historique des requêtes émises par un utilisateur. Ces informations ainsi que d’autres qui concernent le disque dur de l’ordinateur peuvent être mises à contribution (bien que de façon illégale) pour envoyer de la publicité contextuelle.

 

 

Dans certains régimes autoritaires, les données personnelles récupérées par les moteurs de recherche peuvent servir à restreindre l’accès à l’information soit en se censurant (cas de google.cn) soit en faisant arrêter les lecteurs de contenus interdits[3]. En 2004, Yahoo! a fourni aux autorités l’adresse IP d’un utilisateur qui téléchargeait de la documentation interdite par le Régime.

 

 

 

 

 

 

2. Critique des ressources

 

 

 

 

[Montrer que les encyclopédies gratuites en ligne apportent une aide considérable mais posent des problèmes d’autorité et de validation de l’information ; montrer que le web est de plus en plus communautaire, voire tribal]

 

 

 

2.1 Validité scientifique des sources

 

 

 

 

 

De manière générale, la recherche de documents sur le web pose des problèmes de validation scientifique. La notion d’autorité qui faisait autrefois le départ entre les sources d’information académiques et les autres est en train de disparaître avec les développements du web comme la figure de l’auteur elle-même.

Un site n’est plus visité aujourd’hui parce que son autorité est reconnue mais parce que sa popularité est grande.

 

 

De même, lorsque nous faisons des recherches sur la toile nous sommes amenés peu à peu à consulter des documents qui sont plébiscités par la communauté des internautes au détriment de ceux –moins visibles- qui seraient plus à même de répondre à notre demande. De la même façon que la popularité se substitue à l’autorité, l’influence prend le pas sur la pertinence.

 

 

 

 


2.2 Le cas wikipedia

 

 

 

 

 

L’encyclopédie collaborative en ligne Wikipedia cristallise les espoirs des promoteurs du web gratuit dans la recherche documentaire en même temps qu’elle concentre sur elles les critiques. Le débat est né en même temps que Wikipedia elle-même et prend de l’ampleur à mesure que cette encyclopédie draine un trafic plus important.

Certaines universités en bannissent l’usage, ce qui nous semble très excessif.

Wikipedia est pour nous la meilleure et la pire des choses.

 

 

 

       Les avantages de Wikipedia :

 

 

 

 

 

-Il faut saluer l’esprit encyclopédique qui anime la très grande majorité des wikipédiens et l’utopie citoyenne de construction collective du savoir et d’accès gratuit à la connaissance qui est à l’œuvre dans leur activité quotidienne.

 

 

 

-La mise à jour des articles est très rapide, ce qui n’est pas le cas dans les autres encyclopédies pour laquelle les bibliothèques paient des abonnements (Universalis et Britannica).

Un bon exemple en a été fourni récemment quand des scientifiques ont prouvé que l’astre Pluton n’avait pas assez de densité pour être qualifié de planète. La requalification a été immédiate sur wikipedia tandis que l’article de l’encyclopédie universalis consulté le 11/06/2007 n’en faisait rien apparaître.

 

 

 

-Si Wikipedia n’est pas parfaite, elle est amendable. L’amélioration d’article peut même devenir un exercice pédagogique en soi. Par ailleurs, ceux des spécialistes qui critiquent wikipedia en raison de ses inexactitudes sont a priori capables de l’amender. Il est regrettable qu’ils ne le fassent pas systématiquement…

 

 

 

-Rien, si ce n’est quelques blogs d’informaticiens et de professeurs en sciences de l’information ne peut remplacer la fraîcheur des informations disponibles sur wikipedia au sujet des évolutions d’internet.

 

 

 

-Les erreurs sur le fond que l’on peut observer sur Wikipedia ne sont pas de beaucoup supérieures en nombre à celles que l’on constate sur les encyclopédies qui comportent un comité de validation. C’est en tout cas la conclusion d’une enquête qui a été réalisée par la revue Nature en décembre 2005: sur 50 articles sélectionnés, 17 présentaient autant voire plus de fautes chez Britannica.

 

 

 

         Les critiques faites à Wikipedia

 

 

 

 

 

En revanche, si wikipedia possède des détracteurs attitrés (cf. le site d’alithia), ce n’est pas non plus sans raisons.

 

 

 

-Wikipedia compte trop peu de contributeurs actifs par rapport au 33 millions d’utilisateurs (chiffre d’octobre 2006), ratio qui relativise la portée collaborative du projet. En octobre 2006, une étude a montré que 50% des modifications étaient faites par seulement 0,7% des utilisateurs (= 524 personnes).

 

 

 

 

 

-l’administration de wikipedia est bien trop restreinte pour surveiller les développements quotidiens de cette encyclopédie en ligne et pour réagir aux éventuels détournements.

 

 

 

-La forme (syntaxe –orthographe) laisse souvent à désirer.

 

 

 

-Certains articles affichent un contenu partisan. C’est le cas notamment de l’article consacré à la scientologie.

 

 

 

-Comme la modification est instantanée et accessible à n’importe qui, n’importe quel document peut être immédiatement « re-documentarisé » selon les intérêts d’un  groupe de pression. Ainsi, dans la journée qui a suivi le débat électoral entre Nicolas Sarkozy et Ségolène Royal, à la faveur de la controverse que les deux candidats ont entamé au sujet des réacteurs nucléaires de 3ème ou 4ème génération  l’article EPR a subi une cinquantaine de modifications dans le but de donner tort tantôt à l’un, tantôt à l’autre.

 

 

 

-Wikipedia peut servir à diffuser des rumeurs. Le comédien Stephen Colbert a appelé par exemple les internautes à vandaliser l’article « éléphant » (en guise de happening). Certes l’administration de Wikipedia peut aujourd’hui verrouiller les modifications enregistrées sur un article ; encore faut-il que l’alerte soit donnée rapidement. Les actes de vandalisme sont la plupart du temps détectés avec un délai de plusieurs jours.

 

 

 

-Les wikipédiens commettent parfois des plagiats. Ainsi, en juin 2006, l’article sur Albertine Sarrazin était une copie de l’article de Hugo Marsan paru dans le Monde le 13 février 2002 (cf. Bibliothèques vers le big bang, in Livres Hebdo, n°649 (vendredi 9 juin 2006)

 

 

 

- Les erreurs volontaires ou non, même lorsqu’elles sont corrigées, peuvent imprégner longtemps la toile par effet circulaire de citations. Il en va de même de l’information qui circule sur les blogs.

 

 

 

Pour conclure sur cette encyclopédie en ligne, rappelons que le bon usage de Wikipedia ne saurait exclusif. Il faut aller consulter d’autres ressources pour compléter et vérifier les informations trouvées sur ce wiki (par exemple l’Universalis)

Par ailleurs, pour chaque article, il convient de s’informer sur le nombre et la nature des modifications qu’il a reçues (onglet historique), les controverses qu’il a pu susciter (onglet discussion), afin de mesurer ses garanties scientifiques.

 

 

 

 

 

 

2.3   Les blogs : un cinquième pouvoir réellement plus démocratique que le 4ème ?

 

 

 

 

 

Il est fréquent de lire sur Internet des dénonciations et des critiques à l’encontre de la presse traditionnelle accusée d’être soumise tantôt au pouvoir de ses bailleurs de fonds tantôt au pouvoir politique. Constatant le rôle de plus en plus déterminant que jouent les blogs pendant les campagnes électorales ou référendaires, Thierry Crouzet considère la blogosphère comme un Cinquième pouvoir capable d’éluder les contraintes qui pèsent sur les journalistes de métier, rédacteurs et autres représentants du Quatrième pouvoir.

C’est faire beaucoup de crédit à ces pages personnelles qui diffusent une information de plus en plus éphémère (cf. l’invention du moblogging qui consiste à poster des messages sur son blog depuis son portable) et de moins en moins vérifiée. Par ailleurs, comme il a été dit plus haut, il est rare que les blogs soient à la hauteur des exigences d’une démocratie authentique puisque celle-ci suppose une rencontre de points de vue adverses. Or la plupart des blogs partisans pointent vers des blogs qui partagent peu ou prou leur point de vue.

De fait, le débat contradictoire est problématique dans les « tribus » numériques de la blogosphère qui ont tendance à s’ignorer les unes les autres.

 

 

 

3)  Critique des usages

 

 

 

 

Les abus ou les usages inconsidérés d’Internet sont nombreux. On peut les répartir en trois grandes catégories :

-dans la méthodologie de la recherche

-dans l’identification de la ressource

-dans l’exploitation de l’information

 

 

 

3.1 Méthodologie de la recherche

 

 

 

 

 

Les usagers du web se contentent bien trop souvent d’écrire leur mot-clé dans la barre de leur moteur de recherche favori (dans 86% des cas, il s’agit de Google). Cette pratique engendre du bruit (résultats non pertinents) pour deux raisons :

-Comme on l’a vu plus haut au sujet des métamoteurs, le critère de pertinence de l’article n’est qu’un des critères parmi d’autres utilisés par la plupart des moteurs de recherche.

 

 

 

 

 

-Le critère d’autorité de la source d’information n’est pas pris en compte. Ainsi des pages web personnelles qui ne présentent aucune garantie d’exactitude peuvent arriver en tête de liste, alors que les sites institutionnels qui diffusent une information souvent plus fiable peuvent se trouver relégués loin derrière les premiers dans la liste des résultats.

L’article rédigé dans Wikipedia apparaît souvent en tête dans la liste des résultats. Il faut savoir que selon le sujet de l’article, cette encyclopédie collaborative est plus ou moins fiable [renvoi]

-Le mot-clé est souvent mal choisi ou en tout cas ne donnent pas les résultats escomptés.

 

 

Certaines plates-formes essaient pourtant de donner à leurs usagers le goût d’utiliser des mots-clés communs (folksonomies) pour indexer leurs propres données. Mais le mot-clé « transatlantiques » sur Flikr fait tout de même apparaître en les mélangeant des photos de paquebots et des images de congrès franco-américains (« transatlantiques » dans le jargon diplomatique).

 

 

 

3.2  Identification de la ressource

 

 

 

 

 

Une fois les résultats obtenus, il est indispensable d’essayer d’identifier les ressources pour sélectionner celles qui présentent le plus de garanties scientifiques.

Pour cela, il faut lire attentivement les adresses des sites affichés.

 

 

 

Trop souvent l’usager du web ne s’interroge ni sur les auteurs du site (ne cherchant pas à savoir si ceux-ci sont reconnus pour leurs travaux, s’ils sont enseignants ou non), ni sur la mise à jour des informations. Il ne détecte pas non plus toujours le caractère commercial du site  qu’il visite (.com)

 

 

 

Certains sites qui apparaissent pourtant régulièrement en tête des listes de Google, comme le site evene.fr qui se prétend le « premier média culturel en ligne », ne présentent qu’un contenu en général superficiel servant d’introduction à des transactions en ligne (présence de liens sponsorisés et d’une boutique Fnac en ligne dans le cas de evene.fr )

 

 

 

3.3  Exploitation de l’information

 

 

 

 

 

Ce qui est valable pour une source livresque l’est également pour une ressource numérique : il faut la citer. Le plagiat est une forme de vol aisément identifiable avec les moyens que les moteurs de recherche eux-mêmes mettent à notre disposition (recherche par citation).

Pour savoir comment faire figurer un siteweb dans une bibliographie, consulter le guide des normes bibliographiques. [renvoi]

 

 

 

Par ailleurs, d’un point de vue cognitif, il en va de même pour les photocopies ou le copier-coller : parce qu’on a reproduit une page affichée à l’écran dans un fichier personnel, on est tenté de croire que l’on maîtrise l’information diffusée sur cette page. Attention à ne pas tomber dans ce panneau : l’appropriation d’une information sous la forme d’un savoir demande au contraire une attention autrement plus soutenue que celle qui est requise par la sélection d’une zone de texte.

 

 

 

-Dans un cadre extra documentaire, la publication incontrôlée de données personnelles peut être ravageuse. Le web 2.0 qui nous rend autant émetteur que récepteur d’information est en passe de devenir un outil de gestion de l’image personnelle. Les recruteurs se servent de données personnelles laissées sur des blogs pour faire leur choix entre plusieurs prétendants à un même poste. Les opinions politiques, syndicales, les préférences sexuelles et même les hobbies manifestés dans ce cadre peuvent être discriminants. Il est par ailleurs très difficile d’effacer les traces que l’on laisse sur la toile. « Toute page indexée un jour par un moteur de recherche est stockée par le même moteur, en mémoire cache pour une durée indéterminée[4] » car nous ne sommes plus tout à fait propriétaires des données que nous laissons sur des plate-formes de blogs ou de clavardage.



[1] Voir à ce sujet l’article de Barbara Cassin, philosophe et philologue, intitulé « Le nouveau monde version Google » et paru dans le Nouvel Observateur le 8 février 2007.

[2] Jacques Alain Milner (philosophe et psychanalyste) extrait de « Google » article paru dans Le Nouvel Observateur, 15 mars 2007

[3] Bruno Philip, « Yahoo ! est soupçonné d'avoir collaboré avec la police chinoise », Le Monde 17 septembre 2005

 

 

 

 

 

[4] Olivier Etzscheid est maître de conférence à l’Université de Nantes en sciences de l’information et rédacteur du blog affordance (http://affordance.typepad.com/mon_weblog/)

 

 

Publicité
Pour être informé des derniers articles, inscrivez vous :
Commenter cet article