Depuis plusieurs années, les entreprises de toute taille, cherchent à mettre en oeuvre une politique de la donnée cohérente et créatrice de valeur. Nombre d’entre elles ont investi dans le Big Data et ont déployé des entrepôts de données où les données hétérogènes de l’entreprise, qu’elles soient structurées, semi-structurées ou non structurées, sont stockées dans leur format d’origine, voire avec une transformation limitée.

Le chemin vers la mise en place des Data Lake et autres Data Warehouse est souvent semé d’embuches et consommateur de temps. Dans la vraie vie, il faut en général plusieurs années pour mettre en place un outil exploitable de centralisation du stockage de la donnée.
La mise en place du Data Lake n’étant pas une fin en soi, mais plutôt un moyen, une problématique apparaît rapidement. Elle vient du fait que les données sont souvent organisées en silos et que seule une partie limitée de l’organisation connaît et comprend les données dont on dispose.
Après quelques années de mise en œuvre des entrepôts de données, on constate que peu de collaborateurs savent faire le pont entre le métier et la technologie. D’où une sorte d’impasse opérationnelle qui complexifie l’utilisation et l’exploitation de ce « nouvel or noir numérique », voire la rend inefficace et sans intérêt.
Comment sortir de l’ornière de la valorisation de données ?
Une des premières étapes à franchir pour éviter cet écueil consiste à comprendre et à visualiser ce dont on dispose en utilisant des logiciels spécifiques, conçus dans cet objectif. Ces outils, dits de data-visualisation, permettent de visualiser en temps réel les différentes dimensions de la donnée comme par exemple : le chiffre d’affaires, par produit, par zone géographique, par profitabilité, par filiale, par vendeur, ….
Les outils de data-visualisation sont nombreux, bon marché et faciles d’utilisation. Toutefois, ils apportent une vision du business qui reste purement descriptive (ce qui a déjà une utilité en soi), permettant de voir ce qui se passe sans pouvoir identifier les raisons de ce qui se passe.
Comprendre le pourquoi du comment !
C’est toute la difficulté de l’exercice : comment exprimer la valeur de cette donnée ?
Face au problème de compréhension de la donnée, il est possible d’aller un cran plus loin. Il est souvent possible de comprendre les raisons des variations de données en effectuant des calculs sur des données sous-jacentes afin d’identifier les éléments déclencheurs de ce qu’il se passe, et surtout, les raisons de ce qu’il se passe. Il est aussi parfois utile de croiser d’autres sources de données, extérieures à l’entreprise, qui vont venir enrichir l’analyse. Si on prend l’exemple d’une entreprise française comme Piganiol, qui fabrique des parapluies depuis 1884, on imagine bien l’intérêt de croiser des données d’activité avec des données météorologique.
Cette couche de valeur additionnelle créée par la data visualisation et le croisement de données doit impérativement être partagée avec les différentes parties prenantes de l’entreprise : les collaborateurs métiers et, dans certains cas, les clients ou les fournisseurs. C’est là qu’entre en scène une technologie issue de l’intelligence artificielle (la NLG) qui permet de créer automatiquement des commentaires et des analyses à partir des données. Ainsi, aux côtés des logiciels de data visualisation (Power BI, Tableau, …), dont l’accès est bon marché (de l’ordre de 10€ par mois et par utilisateur), des outils de génération automatique de textes existent (Arria NLG, dataecriture.fr, …) et apportent aux métiers des informations précises et sans erreurs, ainsi que des éléments d’analyse et d’explications exprimées en langage clair qui sont directement compréhensibles par tous.
L’accès à ces informations peut se faire soit par l’envoi régulier d’emails automatisés, soit grâce à l’accès à un logiciel intégrant nativement la data visualisation et les analyses. C’est le cas de Microsoft Power BI et d’Arria NLG, dont le connecteur de NLG est nativement disponible dans Power BI.
La valorisation de la donnée n’est pas un exercice facile. Par contre, lorsqu’elle est bien réalisée, elle apporte une couche de valeur très importante ; à la fois pour l’efficacité de l’entreprise mais aussi pour la création de nouveaux services.
On peut regrouper les principaux bénéfices de la valorisation de la donnée en 4 grandes familles :
- Un meilleur pilotage des activités (contrôle des opérations, contrôle de gestion, identification de nouveaux leviers d’efficacité) ;
- Une meilleure anticipation par l’apprentissage machine (croisement de données, identification des risques et des leviers, prédiction) ;
- La génération automatique de documents de conformité réglementaire ou de reportings avec la NLG ;
- La création de nouveaux services personnalisés (identifier un produit à partir d’une photo, clustering, recommandation de produits…).
La valorisation de la donnée est le maître mot de l’année 2021.
Sa mise en œuvre est conditionnée par une alliance efficace entre la data science et les métiers qui, in fine, sont les utilisateurs de la solution. Ce sont bien les métiers qui vont définir les cas d’usage, les axes de développement et les nouveaux services qui devront être mis en œuvre grâce à la data science.
La gouvernance des projets de valorisation de la donnée ne fonctionne que si elle allie les métiers à l’informatique. Les experts de demain.ai se sont fait une spécialité de fluidifier cette gouvernance afin que les projets soient menés à bien dans le respect des délais et des budgets.
A propos de demain.ai
Spécialistes de l’IA en entreprise et des contenus, nous sommes des experts de la conception et de la mise en place de robots-rédacteurs. Nous permettons à nos clients de développer leurs activités en créant des contenus à une échelle inaccessible à l'être humain.
Devis gratuit
Comment votre organisation peut-elle tirer profit de la DataEcriture ? Quelles économies pouvez-vous réaliser et quels nouveaux services pouvez-vous imaginer pour vos clients ? Nos spécialistes peuvent vous apporter des réponses immédiatement.