Gros plan sur big data

Lu en quelques minutes

Cet article appartient à nos archives.

Par Elizabeth Gasiorowski Denis
Publié le
Partager sur , ,
Les organisations intelligentes exploitent les données depuis belle lurette pour établir leurs décisions stratégiques, mais les volumes de données – big data – soulèvent des problèmes spécifiques qu'il est nécessaire de régler à temps. Un nouveau groupe d'étude a justement été créé pour évaluer la situation, en cerner toute la complexité et définir le rôle que les normes peuvent jouer.

Pour faire le tour du sujet, j’ai eu la chance de m’entretenir avec deux pionniers dans le domaine : Jim Melton et Klaus-Peter Eckert. Jim Melton est un expert reconnu, auteur de plusieurs publications sur le langage des bases de données. Depuis plus de 25 ans dans le domaine, Melton préside l’ISO/CEI JTC 1/SC 32, Gestion et échange de données. Klaus-Peter Eckert, collaborateur scientifique à l’Institut Fraunhofer pour les systèmes de communication ouverts (FOKUS), travaille depuis plus de 30 ans sur les questions d’interopérabilité et les plateformes et services d’applications distribuées.

Qu’entend-on par « big data » ? Les définitions ne manquent pas ; en voici une tirée du livre Ethics of Big Data qui permet d’entrer dans le vif du sujet : « La technologie big data est unique de par sa nature même, qui est à la fois la création, la connexion et la corrélation, l’agrégation, le stockage et le traitement de volumes gigantesques d’informations et l’établissement de rapports à partir de ces données. »

Pour schématiser à l’extrême, le big data concerne les quantités colossales d’informations complexes qu’utilisent les entreprises pour mieux motiver leurs décisions d’affaires. Or, comme l’expliquent Eckert et Melton, le big data pose des problèmes spécifiques qu’il est nécessaire de régler à temps.


Les aveugles et l’éléphant

« Encore tout récemment, la communauté mondiale des technologies de l’information se comportait face au big data comme les six aveugles du conte indien face à l’éléphant, explique Melton. Chacun l’abordait sous un, voire deux ou trois angles dans le meilleur des cas. Or la réalité du big data, comme celle de l’éléphant, dépasse la somme des conclusions obtenues par différentes approches. Elle est beaucoup plus complexe que ne le sont individuellement chacune de ses parties. »

La fenêtre d’opportunité est très large.

La quantité de données générées par les entreprises commerciales, notamment les grandes sociétés, est en progression exponentielle. D’après une enquête du cabinet McKinsey Global, les prévisions de croissance de la production mondiale annuelle de données sont de l’ordre de 40 %. Le problème n’est donc plus d’obtenir des données, mais de savoir ce que l’on en fait.

« Le big data présente de nombreux défis, poursuit Melton. La conservation et la qualité des données en sont deux qui ne sont pas nécessairement les plus difficiles. Le traitement, l’interrogation, l’analyse et la synthèse de ces données sont autrement plus compliqués. Dans bon nombre d’environnements, par exemple, la simple description des données – le développement des métadonnées – constituera une étape cruciale, très délicate. »

Pour Eckert, la fenêtre d’opportunité est très large, techniquement. Malheureusement, les approches divergent et les outils dont nous disposons à ce jour manquent d’interopérabilité.

« Dans le domaine du big data et de l’analyse de données, nous avons plusieurs outils qui ont été mis au point par différentes communautés au cours des dernières années. Parallèlement, différents types d’infrastructures TI, notamment dans l’informatique en nuage, ont vu le jour indépendamment du big data. Toutes ces composantes techniques sont à notre portée mais elles ne s’articulent pas les unes avec les autres faute d’intéropérabilité. Il nous manque une architecture qui serait acceptée largement et permettrait de rassembler tous ces éléments. Et c’est justement là que les normes ont un rôle à jouer. »

Melton et Eckert pensent tous deux que la complexité du big data et les interactions entre les nombreux domaines concernés nécessitent une analyse plus approfondie. Telle est précisément la mission du groupe d’étude de l’ISO/CEI JTC1.


Cartographier les complexités

Les normes élaborées dans le contexte compliqué du big data formeront une plateforme propice à l’interopérabilité.

On attend de ce groupe, récemment mis sur pied, qu’il donne une idée beaucoup plus claire de l’ampleur des problèmes, y compris sur les grandes interrogations éthiques que soulèvent certaines utilisations pouvant constituer une violation des droits fondamentaux sur le plan civil, social, politique ou juridique. Ce travail devrait aboutir à une ou plusieurs recommandations au JTC 1 concernant l’attribution de projets à ses sous-comités. Ensuite, le travail de normalisation formel pourra démarrer.

Alors, combien de temps faudra-t-il attendre avant de connaître les conclusions du groupe ? En matière de gestion de projet comme pour le big data, rapidité, qualité et économie ne sont pas compatibles, on ne peut choisir que deux options : des compromis sont indispensables. Pour remplir rapidement sa mission, le groupe d’étude devra dresser un état des lieux utile et cohérent du problème, et s’employer à le simplifier de manière à limiter le nombre de normes à élaborer.

Les deux grandes questions sont les suivantes : « Que peut-on concrètement normaliser ? et quel est le meilleur moment pour le faire ? », explique Eckert. En agissant trop tôt, on court le risque de n’avoir pas suffisamment étudié et compris les technologies, et en agissant trop tard, il se peut qu’un acteur de premier plan ait déjà réussi à occuper une place prépondérante sur le marché. Le JTC 1 et ses sous-comités devront donc bien se préparer et suivre de près les développements.

Les analystes avancent qu’à terme, le big data pourrait bien devenir un nouveau type d’actif que se partageraient les différents départements de l’entreprise, et qui aurait le même atout qu’une marque puissante face à la concurrence. Si tel est le cas, les entreprises doivent commencer à se pencher sur leur organisation pour voir si elles sont en mesure d’exploiter au maximum le potentiel du big data et de faire face aux risques.

« Il est passionnant de participer à la normalisation dans le domaine des TI, fait remarquer Melton. Je suis intimement convaincu que ce travail sur les problèmes, les défis et les opportunités du big data peut aboutir à un changement de paradigme. »

La prévision d’Eckert pourrait se vérifier plus tôt que prévu. Les investissements en 2013 ont connu une hausse constante : d’après une étude de Gartner Inc., 64 % des organisations investissent ou prévoient d’investir dans le big data contre 58 % en 2012.

Une chose est sûre : la réussite dans le domaine exigera non seulement de nouvelles compétences et de nouvelles stratégies, mais aussi de nouvelles perspectives de normalisation en ce qui concerne l’évolution du big data. Avec le temps, les normes élaborées dans le contexte compliqué du big data formeront une plateforme propice à l’interopérabilité qui permettra aux entreprises d’analyser et d’exploiter au mieux leurs données pour mieux servir leurs marchés. Alors, qu’attendez-vous ? Au travail !


Default ISOfocus
Elizabeth Gasiorowski-Denis

contact pour la presse

press@iso.org

Journaliste, blogueur ou rédacteur ?

Vous souhaitez obtenir des informations exclusives sur les normes, ou simplement en savoir plus sur ce que nous faisons ? Contactez notre équipe ou consultez notre dossier médias.