Or, 7 ans plus tard, où en sommes-nous réellement en matière de Big Data après la phase d’adoption, propre à tout nouveau cycle technologique ?
Au-delà d’une réalité économique et qui fait que le Big Data représente déjà un marché qui pèse déjà 50 milliards de dollars, le Big data constitue surtout une réalité qui irrigue des modèles économiques et la chaîne de valeur de bon nombre d’entreprises quand le big data ne constitue pas également l’un des principaux leviers d’accélération des processus d’innovation au sein de l’entreprise.
Le Big data devient également une personne et une fonction au sein de l’entreprise au travers de l’avènement du « chief data officer », profil hybride, à la croisée de compétences IT, de compétences analytiques, empreint d’une très forte culture business et d’une connaissance approfondie des nouveaux business modèles ou modèles d’innovation liés à la transformation digitale, et qui constitue également et de plus en plus souvent l’interlocuteur des équipes Daveo au cours de leurs missions.
Tout semble parfait et pourtant, le phénomène de «la vallée des désillusions » est bel et bien là puisque selon une étude récente menée aux USA, seuls 27% de cadres dirigeants considèrent que leurs projets « Big Data » ont été un succès !
Objectifs métiers peu ou mal définis, choix et conception des uses cases, implication du management, caractère transversal de la démarche au sein de l’entreprise… Autant de facteurs qui tendent à démontrer les limites du « tout technologique » dans l’approche Big Data et en corollaire les enjeux de la mission du chief data officer.
S’il n’existe pas et n’existera à priori jamais d’outil technologique providentiel qui puisse se substituer à la nécessité de bien penser en amont la vision métier liée à toute initiative Big Data, nous vous invitons néanmoins à vous intéresser aujourd’hui de plus près à cette nouvelle tendance qui suscite de plus en plus d’intérêt au sein des entreprises et qui est le Data Lake.
Disons que même si le data lake devient (déjà) une offre technologique déjà bien structurée et fournie, et portée par de grands « vendors » tels que Oracle, Microsoft ou IBM, le concept mérite que l’on s’y attarde car il offre un nouveau rapport et de nouvelles perspectives au stockage et à la valeur « à terme » de l’information.
Contrairement aux outils classiques de SGBD ou d’entrepôts de données, le data lake (ou réservoir de données) ne repose pas sur des structures pré-établies, sur des données exclusivement structurées ou sur des traitements et interprétations « à priori ». Le Data lake ne repose pas non plus sur une logique de stockage relationnel. Un modèle ouvert, extrêmement flexible qui fait que l’on peut tout y stocker (et parce que cela coûte de moins en moins cher également…) : logs web, streams sociaux, données issues des applications métier ou de différents SI, documents, assets digitaux, agrégats, messagerie interne ou encore l’open data etc etc…
Sachant que l’objectif n’est pas de stocker « gratuitement » mais de disposer d’un réservoir permettant de stocker, traiter et d’accéder à un champ de données certes très étendu mais dont on sait qu’il peut contribuer à produire, expliquer, prédire ou modéliser un phénomène business au travers duquel votre entreprise peut capter une source de valeur.
Création de valeur, le mot est donc dit et renvoie à ce qui doit constituer le principe essentiel d’une démarche data Lake afin de pouvoir, parmi quelques exemples, améliorer la performance de détection ou prévision d’événements exogènes, identifier et optimiser des patterns métier (tels qu’un parcours client omnicanal par exemple), développer l’agilité et l’auto apprentissage ou encore alimenter des algorithmes de personnalisation client.
Les experts Daveo sont disponibles afin de :