8316

DévelopperInnovationLes autres méthodes

Le big data, grand héros de la web révolution

Ce phénomène symbolise la dématérialisation de notre société hyper-connectée. Il marque le passage à l’ère numérique et la prépondérance du virtuel dans nos modes de vie et traduit le bouleversement profond de nos comportements. Pas de clic en arrière possible. 

En 2020, le facteur humain semble revenir sur le devant de la scène. Une réflexion autour des aspects éthiques de la donnée est d’actualité. Ainsi l’utilisation du big data dans l’étude médicale concernant le peu d’efficacité, voire la dangerosité d’un traitement à la chloroquine contre le coronavirus est remise en question. Une étude réalisée grâce au big data sans que les scientifiques aient approché de patients. Elle a inséré le doute et la confiance dans leur utilisation.

Deux mots pour des centillions d’informations.

Tout le monde en parle, mais de quoi s’agit-il concrètement ? Le terme « Big Data », en français « données massives » ou « méga-données », désigne l’explosion quantitative de ces unités que les outils classiques de gestion, d’archive et d’analyse ne peuvent plus endiguer. On parle d’environ 2,5 trillions d’octets de données produites chaque jour, provenant des informations basiques de notre quotidien : SMS, vidéos, e-mails, signaux GPS.

Leur nombre est tel qu’il faille créer une solution numérique d’échelle supérieure adéquate à ce nouvel ordre de grandeur. En 2020, elles s’élèveront à 40 zettaoctets selon l’étude IDC-EMC « Extracting value from chaos. » Dès lors, le Big Data force à repenser la conception et l’appréhension de notre monde. Phénomène d’autant plus étonnant que les 90 % des données récoltées actuellement ont seulement 2 ans d’existence. Les « géants du Web » sont les premiers à vouloir relever le défi technologique du XXIe siècle, parmi eux : Google, Yahoo, Facebook. Pour ces « pro-Big Data », le phénomène s’explique avec la règle des 5V.

La règle des 5v. . 

Comme son nom l’indique, elle s’articule autour de cinq notions qui commencent par la lettre « v ». Le volume, de l’incroyable production exponentielle d’informations à chaque seconde estimée à 50 000 gigaoctets en 2020. La vélocité avec laquelle s’élaborent et se déploient ces données neuves en temps réel, prenant parfois un aspect viral. Chaque minute ce sont 204 millions de messages électroniques envoyés, 216 000 publications postées sur Instagram, 277 000 tweets émis et 72 heures de vidéos téléchargées via YouTube.

Autant d’images, de vidéos, de textes, ou de voix qui restent soumises à analyse, comparaison, reconnaissance, et classement grâce à la variété des outils de la technologie Big Data. Actuellement, 90 % des données sont « non structurées. » Il faut prouver la véracité des informations collectées, les authentifier afin de ne pas leur ôter de la valeur marchande. Soit le profit potentiel que peuvent en tirer les entreprises qui les utilisent. Le Big Data devient un sérieux atout selon les gestionnaires et les économistes qui le voient même comme un manque à gagner pour les non-usagers. Selon une étude Qlik, seuls 2 % des entreprises ne le mettent pas au cœur de leur transformation digitale.

La croissance forcée d’internet.

L’avènement du Big Data va de pair avec un tout nouveau domaine technologique qui lui est propre. À commencer par le traitement instantané des informations grâce à ses bases de données NoSQL, plus adaptées aux données non-structurées que le traditionnel SQL (Structured Query Language, soit le langage de requête structuré). Suivi des infrastructures du serveur qui distribuent ces traitements sur des milliers de « nœuds », ou unités informatiques connectées. Il s’agit du traitement massivement parallèle (Hadoop) accéléré à son tour par le stockage des données en mémoire (Memtables) qui réduit la durée des requêtes. Ces systèmes d’exploitation et de sauvegarde agissent en temps réel pour une maintenance plus intelligente des Data Warehouse (entrepôts de données). Ce schéma évolue très vite et impose la cadence à ses process, constamment réactualisés afin d’optimiser leur performance.

Quel avenir pour ce phénomène ?  

Le système de méga-données a métamorphosé le paysage numérique et le laisserait en ruine s’il venait à disparaître sans « héritier ». Mais si jamais rien ne dure sur internet, tout évolue et se transfigure. Dans ce contexte, il n’est plus légitime de s’interroger sur la longévité de Big Data, devenu incontournable et quelque part immortel. Les grands comme les petits acteurs du web s’y mettent. C’est la marche à suivre pour rester à la page et ne pas se faire doubler par une concurrence avant-gardiste. Le marché mondial des données massives, en pleine expansion, se chiffrera bientôt en centaines de milliards de dollars.

Les entreprises en tout genre y allouent une part grandissante de leur budget marketing. Le Big Data devient l’instrument commercial par excellence et ouvre la voie à la Business Intelligence, à l’analyse et à l’Internet des objets. Ensemble, ils génèrent l’économie de demain, celle de la numérisation globale. Ce domaine, prédictif par nature, requiert algorithme, statistique et même intelligence artificielle, pour anticiper la valeur et le cours des données futures. Ces dernières sont freinées dans leur envol, en raison de l’excès quantitatif et de la carence qualitative des informations qu’elles véhiculent. Jugées « incertaines », elles verront leur exploitation diminuer, bien qu’elles règnent déjà en despote sur le web. Le Big Data devient le principe et le moteur de tout acte numérique.

Afficher plus

Articles similaires

Bouton retour en haut de la page