L’information et le renseignement par internet: Comment gérer l’information à l’heure du web 2.0 ?Laurence Ifra; Presse universitaire de France 2010

Voici un très bon livre sur le sujet du web 2.0 et du renseignement par internet. Sérieux, complet, on sent que l’auteur, réputée dans le milieu de la cybercriminalité à une passion pour le sujet.

L’ouvrage est composé de neuf chapitres (le renseignement public et privé, histoire des moteurs de recherches, la veille, l’accès à/et la manipulation de l’information, le web 2.0 et les réseaux sociaux : l’envers du décor, le contrôle de la validité de l’information, Organisation de l’information, un savoir-faire français, Perspective) ainsi que d’un glossaire et d’une bibliographie (très important !) qui reste toutefois très limitée (10 ouvrages cités) pour cet ouvrage et avec des sources qui commencent à dater (1993 !). Une webographie plus complète est également présente en fin d’ouvrage.

Après avoir rappelé les origines des services de renseignement français sous Louis XIII et présenté rapidement les services secrets US, l’auteur attaque directement sur le thème de l’intelligence économique dans ce premier chapitre. En survolant rapidement les services japonais du JETRO, et les débuts de l’IE en France avec le rapport Martre, l’auteur entre dans le vif du sujet avec les technologies de l’information et le web 2.0.

Le chapitre deux est consacré à l’histoire des moteurs de recherches, ce qui rappelle de bons souvenirs (Lycos, Altavista, Excite). C’est certainement à mon sens la partie la moins intéressante du livre (mais cela ne reste qu’un avis personnel), car peu utile au lecteur qui s’intéresse davantage aux techniques de veille et de recherche d’information sur le web.

La veille, sujet du chapitre trois présente les différentes formes de veille (technologique, concurrentielle), ainsi que les risques liés à l’e-réputation et le bad-buzz. On y découvre aussi les pratiques de certaines enseignes pour obtenir des avis positifs sur leurs produits (« 50 cents people »).

Le chapitre quatre est consacré à l’accès à la manipulation de l’information, avec deux exemples de manipulation de l’opinion à des fins boursières (United Airlines et Apple) et un court passage sur l’espionnage industriel et les conséquences qu’il peut y avoir pour une entreprise.

À partir du chapitre cinq, on entre dans la partie « intéressante du livre ». Ce chapitre cinq est consacré au web 2.0, les réseaux sociaux et l’envers du décor. L’auteur attire notre attention (à très juste titre) sur les risques d’utilisation des réseaux sociaux par les militaires en opération extérieures. En effet, par inattention ou mégarde il est possible de trouver des indices pouvant indiquer une opération imminente en territoire ennemi. Une démonstration est également faite afin de prouver qu’il est possible de retracer la vie d’un utilisateur lambda présent sur internet, ici il s’agit de la plus célèbre celle d’un utilisateur dénommé le « tigre ». Même si le sujet est traité un peu rapidement (dû au format du livre) il est assez explicite sur les dangers à exposer sa vie privée sur internet.

Le chapitre six est consacré au contrôle de la validité de l’information. Chapitre très important pour tout veilleur ou média un minimum sérieux. Recouper et vérifier la validité de l’information est essentiel pour ne pas faire fausse route dans son analyse. Le meilleur passage du livre se situe entre la page 77 et la page 89. Pour une fois qu’un auteur fait un point sur les risques liés à la confidentialité des recherches sur internet. Pour avoir déjà soulevé ce problème lors de nombreuses discussions avec des éditeurs de logiciels de veille ou chef d’entreprise, en France on ne semble pas beaucoup s’interroger sur les risques à utiliser Google en entreprise ou plus simplement la confidentialité des requêtes lors de l’utilisation de logiciels de veille. À ce niveau, la France est en retard… Pour revenir au livre, l’exemple sur le recoupement des requêtes est également très percutant et démonstratif des traces que nous laissons lors de nos navigations web.

Le chapitre sept est consacré à l’organisation de l’information, sujet très intéressant, mais difficilement traitable en si peu de pages. De plus pour avoir testé les différents logiciels (bien avant de lire le livre) énoncés dans le livre, je n’en ai trouvé aucun de vraiment satisfaisant à mes besoins, mais l’auteur a le mérite de les présenter et de les comparer.

Le chapitre huit m’a vraiment surpris, je ne m’attendais pas du tout à une partie aussi technique sur les différents traitements de l’information (Text mining, web sémantique, analyse sémantique). Pour avoir travaillé sur le sujet, lors de mes années d’études, j’ai pu retrouver un bon nombre de logiciels très spécialisés (souvent inconnus du grand public) et qui se retrouvent mis en avant dans cet ouvrage. Cet accès a de l’information d’ordre technique pour grand public permettra peut être de comprendre davantage les métiers et techniques liés à la recherche d’informations.

Le chapitre 8 et 9 sont une forme de conclusion à l’ouvrage.

En conclusion : Même si ce livre n’a pas de réelle valeur ajoutée pour les spécialistes de la recherche d’information sur internet. Il est redoutablement bien écrit, avec des démonstrations, et des chiffres à l’appui. Compréhensible pour le grand public, il vulgarise des concepts parfois techniques ou obscurs, qui semblent limpides à la fin de lecture de l’ouvrage. De plus, on ressent que l’auteur à une vraie compréhension du sujet (ce qui pour certains ouvrages n’est pas le cas), ici point d’aberration, ou de grossières erreurs. Je recommande vraiment cet ouvrage pour le grand public, les curieux, et les professionnels de l’information qui souhaitent rapidement réviser ou compléter leurs connaissances.

*Ma note personnelle pour ce livre est de 4/5

*Tous les livres présentés sur ce site ont été lus et sont en rapport de près ou de loin avec l’intelligence économique.

Jonathan SCHELCHER

 

Share This