[Article parût dans « Presse & Communication », Avril 2003] Ces dernières années tout s’est accéléré. La vague informationnelle s’est transformé en un gigantesque Tsunami, faisant de notre société la nouvelle Atlantide des océans numériques. Question existentielle : comment faire pour ne pas couler et disparaître corps et biens comme le continent légendaire ?
La vitesse croissante des échanges, la surabondance des données et leur fluidité, nous donne l’impression insidieuse que dorénavant le temps nous échappe. Auparavant, lorsque l’on voulait être en mesure d’atteindre une personne, celle-ci devait se trouver à proximité du téléphone au moment de l’appel. La plate-forme de communication étant alors dissociée du destinataire final. Cette situation prédisposait à une latence entre le moment ou le message était émis et celui ou il était réceptionné. L’apparition de la téléphonie mobile et de l’email [1] a démultiplié les possibilités de contact. Créant un nouveau stress engendré par une perception implicite « d’immédiateté » des échanges. Paquets standardisés Malgré ces changements, nous sommes restés sur une dynamique de réflexion basée sur des croyances empiriques de société pour appréhender les nouvelles technologies de l’information et de la communication (NTIC). L’ère du tout numérique a enfanté cette « société de l’information » dont on peine à définir les frontières virtuelles. Notion dont la subjectivité se trouve renforcée par l’aspect intangible de la matière qui la compose : chaque information est numérisée, les supports physiques sont dématérialisés, l’image côtoie le son et le texte. Ces données hétérogènes, segmentées sous forme de paquets, circulent sur une plate-forme standardisée unique : le protocole TCP/IP [2]. La perception de ce nouvel environnement implique une remise en cause philosophique. Miroir de vérité, Internet formalise les courants tacites présents au sein de la société. Il s’y reflète une image sans compromis du monde tel que nous l’avons créé, avec ses anges et ses démons. Les valeurs fondamentales du bien et du mal s’y expriment dans toutes leurs dimensions et quelques fois nous renvoient ces réalités de notre quotidien dont nous préférons nous voiler la face. Dans le passé, le mode d’évolution séculaire de la société donnait à l’humanité le temps nécessaire pour adapter sa perception et ses valeurs aux changements en cours. Ces temps là sont révolus, maintenant les mutations sont rapides et multiples, leur compréhension en est rendue d’autant plus difficile par une diminution de la marge de réflexion. Anticiper l’opinion La prise en compte de ces aspects sociologiques permet de mieux appréhender le déphasage qui existe au niveau de la perception des nouveaux enjeux de la société numérique. L’information est devenue une entité, l’arme ultime des pays riches. Le temps écoulé depuis les événements du 11 septembre 2001, a démontré, tant au niveau politique qu’économique, que la maîtrise de l’information représente aujourd’hui un aspect stratégique. Pour certains gouvernements il est devenu indispensable de prévoir les réactions de l’opinion. Le but ultime étant de fournir de manière anticipative les éléments « appropriés » sur lesquels le public se basera pour construire ses convictions et ses décisions. Les « unités d’opération d’information » et « unités d’opérations psychologiques [3] » de l’armée représentent bien cette ère nouvelle où les guerres se gagnent en premier lieu sur le terrain des opinions. Sur ce nouveau théâtre d’opération, les différents fournisseurs d’informations et acteurs du monde de la communication, sont les instruments – conscients ou inconscients – d’influence et de manipulation. Compte tenu de la rapidité des échanges, de la diminution du temps de traitement de l’information et de la professionnalisation des sources, il devient dès lors de plus en plus difficile d’avoir les repères nécessaires pour conserver son libre arbitre. Orages numériques Jusqu’à récemment, le caractère hétérogène des informations concernées, leur délocalisation, de même que leur volume de moindre importance, représentaient une certaine difficulté à leur regroupement et à leur traitement. Actuellement, la capacité à « fusionner » ces données est rendue possible par les outils de profilage tels que le « data mining [4] » et le text mining [5] ; Internet résout quant à lui les problèmes de délocalisations. De plus, ces dernières années on a assisté à la création d’un nombre incalculable de nouvelles sources de données, alimentées volontairement par un public peu conscient des enjeux liés à l’exploitation de leur information personnelle (les bases de données clients des grandes libraires du net, les cartes de fidélisation diverses, etc.). De la création à l’exploitation le pas a vite été franchi… La consistance même de l’information a changé, sa numérisation sous forme de bits en a fait un élément instable et extrêmement volatile. La vitesse des échanges, l’instabilité des supports de transport des données, l’augmentation du volume même de celles-ci, ont abouti à des sortes d’orages numériques dont la marge de prédiction s’est amoindrie d’autant. La capacité d’anticipation, de même que la traçabilité de l’origine de l’information en ont été réduites. Ajoutons à cette situation peu favorable, la notion de « déconstruction » de l’information et la difficulté à contrôler l’intégrité de ce que l’on numérise. Une fois que l’information a été transformée en bits comment garantir de retrouver un contenu identique à l’arrivée ? De l’aspect de réactivité à l’information peut découler la capacité à désinformer grâce à la gestion simultanée des facteurs de temps, d’espace et de volume. La multiplicité des fronts informationnels, la difficulté d’identification des acteurs ou de l’origine même des attaques, ont augmenté la problématique de la capacité de réponse à une utilisation offensive de l’information. Peut-on encore se référer simplement au « fait » (à l’information transmise) ? Il est vraisemblable qu’actuellement il faut augmenter le nombre de paramètres de contrôle de l’information. La détection de ces signaux dits « faibles [6] » passe par la surveillance de l’environnement même de l’information ou du fait transmit : on s’attachera non seulement à la qualité de la source, mais aux différents éléments présents dans le contexte de celle-ci. Incidences, coïncidences et conséquences dû à l’apparition d’un élément informationnel, sont aussi à prendre en compte dans une analyse globale. Un fossé est apparut entre le politique et l’opinion publique. Les attentes des électeurs vis-à-vis de leurs représentants sont quelques fois en contraction avec les agissements de ceux-ci. Les récents événements liés à la crise irakienne en sont une démonstration flagrante : les gouvernements espagnol et anglais vont exactement à l’opposé de la volonté de leur électorat. 80% de l’information passe par les Etats-Unis Le contexte actuel n’aide en rien à affronter ce type de situation. On peut noter que 80 à 90% de ces paquets d’information qui transitent sur Internet passent par les Etats-Unis. Les noms de domaine et les serveurs qui les gèrent sont les seules ressources qui soient entièrement centralisées. Il y a quatorze serveurs-racine répartis dans le monde, mais seulement trois qui ne sont pas aux Etats-Unis (les quatre autres se situent en Espagne, en Angleterre, en Suède et au Japon). Cette problématique de la répartition stratégique des ressources nécessaires au fonctionnement du Net est accentuée par la mainmise actuelle du département du commerce américain sur les noms de domaine par le biais de l’ICANN [7]. Face à cette situation, il faut faire preuve de vigilance si on ne veut pas assister à l’émergence de « soft dictature » dont la capacité à anticiper nos réactions nous donnerais l’impression que l’on conserve son libre arbitre. Bien que la société de l’information touche actuellement moins de trois pour-cent de la planète, l’actualité de ces derniers mois nous montre que nous devons déjà nous sentir tous concernés par les problèmes qu’elle soulève. English version « Internet: weapon of mass destruction? » 1)bien que l’email soit apparu avant le téléphone mobile, son utilisation est restée élitiste encore pendant quelques années après la naissance du World Wide Web en 1992). 2)Transfer Carrier Protocole/ Internet Protocole, protocole qui régit l’échange d’information par paquet sur Internet. Ce standard est défini par un organe de régulation non-gouvernemental appelé l’IETF 3) unité militaires spécialisée dans le traitement de l’information et l’utilisation des NTIC dans le but d’obtenir un avantage stratégique 4) Processus d’aide à la décision où les utilisateurs cherchent des modèles d’interprétation dans les données. Un DataMining permet d’analyser les données d’un datawarehouse afin d’extraire des informations originales et des corrélations pertinentes d’un grand volume de données brutes. On parle même de « Découverte de Connaissances dans les Données » (Xavier Polanco). 5) Le text mining se distingue du data mining également par les moyens techniques spécifiques qu’il faut employer pour traiter les données textuelles et non structurées. Une définition générale du text mining est la suivante : l’extraction d’informations à partir des formes ou patrons non manifestes (au sens de hidden patterns) dans des grands corpus de textes. Autrement dit, l’objectif est le traitement de grandes quantités d’information qui sont disponibles sous une forme textuelle et non structurée. (Feldman et al., 1998a ; Landau et al.,1998). 6) Dans un contexte de surabondance de l’information, l’enjeu est de pouvoir distinguer parmi le « bruit » l’information qui sera utile à l’entreprise. Il s’agit donc de détecter les faibles occurrences, c’est-à-dire les « signaux faibles » (I.Ansoff) 7) « Internet Corporation for Assigned Names and Numbers » www.icann.org
|