La qualité des données, un facteur de succès en affaires

Les informations de mauvaise qualité constituent une entrave à l’efficacité des organisations. Des mesures spécifiques et la participation des ressources de l’entreprise sont nécessaires pour assurer cette qualité.

Aujourd’hui, les entreprises sont généralement conscientes de l’importance de disposer de données de qualité. Leurs obligations en matière de conformité, notamment, les incitent à accorder une plus grande importance au sujet. Maintenir la qualité, par contre, n’est pas une tâche facile. Les organisations n’ont pas toujours les connaissances et les moyens permettant de le faire efficacement.

La qualité des données se mesure selon plusieurs critères. Les données de qualité sont précises, intègres, constantes, complètes, valides, accessibles et diffusées en temps opportun. Ce qui signifie, entre autres, qu’elles sont fidèles à la réalité de l’entreprise et qu’elles correspondent à une source vérifiable. De même, leur structure et les relations qui sont établies entre elles sont constantes. Par exemple, la cote de crédit attribuée à un client suit la même échelle d’évaluation dans l’ensemble des applications et des systèmes.

Idéalement, les données sont disponibles en temps voulu. Il doit être facile d’y accéder, de les comprendre et de les utiliser. Les données de qualité sont complètes et conservent la même signification dans tous les secteurs d’activité de l’entreprise. L’omission du code postal dans l’adresse d’un fournisseur obligera un employé à faire une recherche afin de le trouver, causant perte de temps et baisse de productivité.

Causes de l’altération de la qualité des données

Plusieurs facteurs peuvent altérer la qualité des données. D’abord, il y a les méthodes et les politiques qui, en raison d’une vérification déficiente, provoquent l’entrée d’informations erronées dans les systèmes. La saisie de données tardive constitue un autre facteur, de même que la diversité des canaux d’entrée, qui peut engendrer de la confusion et un manque d’homogénéité.

Parfois, ce sont les applications qui sont en cause, par exemple lorsque des erreurs de système surviennent ou que des améliorations apportées au système ont pour effet de changer la granularité des données. À cet égard, l’évolution rapide des technologies et la fréquence à laquelle les organisations procèdent à des changements de plateformes et de systèmes jouent un rôle important.

Par ailleurs, il ne faut pas oublier les facteurs liés à une mauvaise gestion. Le plus important, sans doute, est le manque d’intérêt de la direction vis-à-vis de la qualité des données. Cette situation peut entraîner un déficit de sensibilisation au sein de l’entreprise et conduire les gestionnaires à traiter les symptômes du problème comme autant de cas isolés. Les solutions sont alors apportées à la pièce, et aucune mesure efficace n’est prise pour améliorer la qualité des données de façon permanente.

Une erreur classique consiste à faire du service des TI le bouc émissaire des problèmes relatifs aux données. Pourtant, ce sont les employés et les processus qui, à la grandeur de l’entreprise, créent les données. Tous contribuent à altérer leur qualité, et tous doivent contribuer à résoudre le problème ainsi qu’à contrôler et à maintenir, au fil du temps, la qualité des données dont ils sont propriétaires.

Impact

Les conséquences du manque de qualité des données sont grandes. Outre la baisse de productivité déjà évoquée, il peut en résulter une perte de clients et de clients potentiels. Sans informations justes et précises, la direction ne peut prendre de décisions éclairées. Et que dire des impacts qu’auront les factures, les relevés et les états financiers erronés sur les revenus de l’entreprise…

La qualité des données pose un problème grandissant au sein des organisations. En outre, plus on attend pour le résoudre, plus les correctifs requis sont complexes et onéreux.

Pour ajouter aux difficultés, les méthodes, normes, techniques et outils permettant de contrôler la qualité des données n’ont pas progressé au même rythme que les systèmes d’information. À titre d’exemple, il existe un écart important entre les besoins des organisations et les possibilités offertes par les référentiels d’entrepôt de données. Les métadonnées contenues dans ces derniers ne sont pas harmonisées avec les systèmes plus récents. En fait, les référentiels ont été conçus pour les architectes et les développeurs, et non pour un large public.

Solutions et stratégies

La qualité des données passe par la mise sur pied d’un programme d’assurance de la qualité. Il ne s’agit pas là d’un projet provisoire, mais d’une mesure permanente. Toute initiative visant à créer de nouveaux magasins de données, ou qui déplacent, répliquent ou intègrent des magasins existants, devra tenir compte de ce programme.

L’entreprise doit commencer par procéder à une inspection des bases de données et des processus informationnels afin de déceler et de résoudre les problèmes. Dans le but de connaître la structure, le contenu et la qualité des données, elle aura à en faire le profilage. Celui-ci constitue un outil indispensable de mesure de la qualité. Il contribue à définir les mesures correctives et à évaluer la qualité sur une période prolongée. En faisant appel à des techniques de recherche et d’analyse, le profilage des données procure des informations clés sur celles-ci.

Une autre démarche importante consiste à réviser les métadonnées commerciales et techniques maintenues dans l’ensemble des systèmes de l’entreprise. Le but de cette révision est de mettre les métadonnées en commun, au profit des différentes fonctions de l’organisation. Le partage à la grandeur de l’entreprise d’une même définition de l’information stratégique – ou des mêmes métadonnées – permet d’améliorer la communication interne et la confiance éprouvée vis-à-vis de la veille commerciale. Il s’agit d’un pas vers une intégration plus étroite et une meilleure interopérabilité des systèmes. De façon générale, les organisations devraient accorder une plus grande importance à la révision des métadonnées, tâche essentielle afin d’exercer un contrôle plus strict de la qualité informationnelle.

L’ensemble de ces mesures s’inscrit dans le cycle de vie de la qualité des données, qui comprend quatre phases : déceler les problèmes, définir des critères de mesure, corriger les anomalies et prévenir la détérioration des données. Pour une organisation, il importe de décider lesquelles de ces phases elle veut mettre en œuvre. À cette fin, elle doit analyser le risque et les avantages liés à la détection des problèmes, à la définition des critères de mesure et à la prévention. Chaque fois, elle doit se demander s’il est avantageux de passer à la phase suivante – en fonction des coûts notamment.

Une fois les problèmes corrigés, la tâche consiste à s’assurer qu’un modèle efficace de gouvernance de la qualité des données s’applique d’un bout à l’autre de l’organisation. Un tel modèle soutient le programme d’assurance de la qualité et contribue à en faire une valeur importante au sein de l’entreprise.

Le modèle de gouvernance est construit sur trois niveaux : stratégie, tactique et opérations. La stratégie est confiée à un comité exécutif. Au niveau tactique, d’autre part, un comité de direction veille à ce qu’une synergie s’installe entre les différents services de l’entreprise. Au niveau opérationnel, enfin, des conseillers coordonnent les initiatives relatives à la qualité, sur le plan des affaires et des systèmes à la fois.

Projet permanent, d’un bout à l’autre de l’entreprise

En englobant l’ensemble des services de l’entreprise et ses différents niveaux hiérarchiques, le modèle de gouvernance reflète une règle primordiale : la qualité des données est l’affaire de tous, et non seulement des TI. Elle est un projet d’entreprise.

Tout comme la participation de l’ensemble des ressources, le caractère permanent des démarches d’amélioration est essentiel afin de pouvoir utiliser des données de qualité.

Les organisations au sein desquelles ces principes sont appliqués se donnent les moyens de disposer d’informations précises, complètes et opportunes. Du coup, elles sont mieux à même d’accroître leur efficacité et de renforcer leur caractère concurrentiel.

Magali Henry est directrice-conseil et Mario Fraccaro est directeur-conseil chez CGI. CGI offre des services en TI et en gestion des processus d’affaires.

Articles connexes

CGI sélectionnée pour la transformation numérique d’un contrôleur aérien britannique

CGI vient d’être sélectionnée pour travailler en collaboration avec NATS, une entreprise britannique de contrôle de la circulation aérienne, pour transformer et moderniser son infrastructure numérique et faire évoluer ses services de circulation aérienne au Royaume-Uni.

Partenariat entre CGI et Google Cloud pour la plateforme de durabilité planétaire de l’Organisation des Nations Unies pour le développement industriel

La montréalaise CGI entreprend aujourd'hui un partenariat avec Google Cloud pour mettre en œuvre la plateforme de durabilité planétaire de l'Organisation des Nations Unies pour le développement industriel (ONUDI), un organisme qui a pour mandat de promouvoir, dynamiser et accélérer un développement industriel durable et inclusif. Il s’agit d’un système axé sur les données qui permettra aux pays d'identifier les défis liés au développement durable comme la pollution de l'air, la hausse des températures et les inondations.

Adoption du projet de loi no 38 sur la cybersécurité et la transformation numérique de l’administration publique

Le projet de loi no 38, connu sous le nom de Loi modifiant la Loi sur la gouvernance et la gestion des ressources informationnelles des organismes publics et des entreprises du gouvernement et d'autres dispositions législatives, a été adopté plus tôt cette semaine par l'Assemblée nationale.

Investissements majeurs de 500 M$US de Microsoft au Québec

Au cours des deux prochaines années, Microsoft investira 500 millions de dollars américains dans l'expansion de son infrastructure infonuagique et d'intelligence artificielle à grande échelle au Québec.

Balado Hashtag Tendances, 23 novembre 2023 — Crise chez OpenAI, des puces Microsoft et investissements majeurs au Québec pour Microsoft

Cette semaine : Grave crise à la tête d’OpenAI, Microsoft conçoit ses propres processeurs et investissements de 500 M$ de Microsoft au Québec.

Emplois en vedette

Les offres d'emplois proviennent directement des employeurs actifs. Les détails de certaines offres peuvent être soit en français, en anglais ou bilinguqes.