La surinformation : une info à ne pas manquer !

L'équipe Dynamique Entrepreneuriale     04/02/17    
surinformation info ne pas manquer

La quantité d’informations produite n’a jamais été aussi grande. Il suffit de deux jours désormais pour produire autant de données que depuis l’invention de l’écriture. On peut réellement parler de déluge tant la quantité d’informations que nous recevons chaque jour est importante. Comment alors ne pas se laisser submerger ? Comment ne pas se noyer sous les flots de données pour ne retenir que l’essentiel et l’utile ? Quel rôle va jouer le big data dans les années à venir ? Autant de questions auxquelles nous allons essayer d’apporter des réponses.

Un océan de données

On parle souvent d’un océan de données pour désigner toutes les informations produites chaque jour, et il n’y a réellement aucune exagération dans cette appellation. Tous les deux jours, la quantité de données produite est équivalente à celle produite depuis de début de l’Internet. Dans moins de dix ans, elle sera cinquante fois plus importante à ce qu’elle est aujourd’hui. Le nombre de serveurs nécessaires au traitement de cette masse de données sera multiplié par dix. Depuis vingt ans, les usages n’ont cessé d’évoluer. à l’époque, une disquette contenant 1,4 Mo permettant d’échanger nos fichiers, des disques durs de quelques dizaines de Mo suffisaient à stocker toutes les possessions numériques d’une entreprise. Les nouveaux usages ont induit de nouveaux besoins. Nous partageons des images en haute résolution, sauvegardons des films, publions des informations sur des réseaux sociaux à partir d’ordinateurs, de tablettes, de Smartphones, où que nous soyons et à n’importe quelle heure du jour ou de la nuit. Des centaines de milliers de messages sont publiés sur Twitter, des millions de SMS sont envoyés, des centaines de millions de courriers électroniques parcourent chaque jour le réseau. Toutes ces informations doivent être déplacées, traitées, stockées. Si l’essentiel des données est encore produit par des humains, elles seront de plus en plus dans l’avenir générées par des capteurs et des automates. Un grand nombre de données issues de caméras, de stations météo ou encore de réseaux de transports urbains laissés en libre accès (open data) ou non viendront grossir chaque jour le flux des données générées par des humains.

Le big data pour traiter le flot de données

Pouvoir accéder à des volumes inimaginables de données est une chose, en faire quelque chose d’utile en est une autre. Analyser de telles quantités de données représente un défi inédit dans l’histoire du traitement de l’information. C’est de ce besoin qu’est née la nouvelle discipline du big data. Elle consiste à analyser les immenses bases de données en utilisant des algorithmes spécifiques. L’objectif est d’établir le lien entre tous les éléments enregistrés afin de mettre en exergue des informations exploitables. Mais pour être efficace, le big data doit être en mesure de délivrer le résultat des traitements très rapidement. Pour effectuer ces opérations en quelques dixièmes de secondes, il faut naturellement déployer une puissance de calcul suffisante. Si Google a été précurseur dans le domaine avec les énormes quantités de données traitées par le moteur de recherche, d’autres sociétés lui emboîtent le pas. Les débouchés sont nombreux, de la prévision d’audience pour les chaînes de télévision à la définition précise de cibles marketing en passant par le suivi et la prévention des épidémies ou même la prédiction des crimes pour mieux les empêcher, nos données intéressent tout le monde. Nos données intéressent tout le monde… y compris les pirates. Se pose donc maintenant la question ultra-sensible de la sécurité des données. En 2011, pas moins de 24 millions de comptes ont été piratés chez Sony. De nombreuses informations personnelles et confidentielles (comptes bancaires) ont ainsi été obtenues. On ne compte plus les exemples de ce type, de plus ou moins grande ampleur, qui sont relayés régulièrement par les médias. Toutes les sociétés manipulant ces énormes quantités de données sont donc des cibles potentielles.

Ne pas se laisser submerger

S’il peut être intéressant de disposer d’un grand nombre d’informations, est-ce toujours utile, pertinent et efficace ? Nous sommes parfois dépassés par la quantité d’informations que nous recevons en permanence. Hyper-connectés, addicts aux nouvelles technologies, cet afflux de données peut finir par désorganiser notre vie, personnelle et/ou professionnelle. Au final, la quantité d’informations que nous recevons chaque jour nous rend-elle plus performants ? Est-ce réellement une aide, un atout ? Rien ne prouve à l’heure actuelle que plus de données signifie plus d’efficacité et de rentabilité. En revanche, ce qui est sûr, c’est que le traitement, l’analyse et l’utilisation de ces données demande de plus en plus de temps dans la journée. Pour être sûr que le rapport entre le temps passé à décortiquer les informations reçues chaque jour et le bénéfice qui en découle reste positif, il est impératif de se concentrer sur ce qui est réellement nécessaire et d’éliminer le bruit, les données parasites. Ainsi, faire le tri très régulièrement dans ses abonnements à des listes de diffusion est un bon réflexe, voire un réflexe de survie. Ne conservez que les abonnements en lien direct avec votre activité. Au pire, si vous souhaitez conserver tout de même certains abonnements mais que vous savez qu’ils risquent de vous faire perdre du temps, ou qu’il s’agit d’informations secondaires en termes de priorité, utilisez une adresse email secondaire que vous ne consulterez qu’occasionnellement, lorsque votre emploi du temps vous en donnera la possibilité. Utilisez également les filtres proposés dans la plupart des logiciels de messageries ou d’agrégation de nouvelles.

Rester à l’état de l’art

De la même façon, il est important pour une entreprise de mettre à jour régulièrement ses outils de marketing et de communication. S’il est aisé de toucher de plus en plus de monde par des campagnes marketing grâce aux nombreuses données recueillies, c’est plus compliqué de cibler correctement les personnes les plus susceptibles d’être intéressées par un produit ou par un service. Trier les informations, supprimer les redondances, effectuer des recoupements et filtrer les données pour en extirper uniquement celles qui sont nécessaires, autant de fonctions indispensables à un outil opérationnel. Des outils régulièrement mis à jour en lien avec des applications de traitement big data performantes permettront de cibler vos campagnes de communication de façon parfaitement efficace.

Des comportements qui évoluent

Auparavant, il nous fallait raisonner avec moins d’informations, faire preuve de déduction, anticiper. L’abondance d’informations facilement accessibles a profondément modifié les comportements. Avec moins de données, il fallait réfléchir en amont, chercher l’information manquante ou la solution, voire, faire sans. Désormais, le flot de données étant permanent, nous avons plutôt tendance à réagir en aval, une fois l’information reçue. Cela pourrait bien à terme nous priver d’une partie de notre libre-arbitre. La peur de manquer fait partie de l’être humain, et elle existe même pour les informations. Certaines personnes se sentent rassurées en recevant de grandes quantités d’informations. Mais est-ce une bonne chose ? Sans temps suffisant pour filtrer et assimiler les informations, elles sont acceptées telles quelles. Couper les communications, faire taire parfois le bruit permanent engendré par les différents flux ne peut qu’être bénéfique. à condition naturellement de le faire avec discernement. Tout savoir n’est pas forcément souhaitable. Il vaut donc mieux prendre le risque de rater des informations plutôt que d’être submergé et de pas pouvoir de toute façon tout exploiter.

Donnez une note à cet article