Machine Learning

Analyse des données : montée en puissance du Machine Learning

Analyse des données : montée en puissance du Machine Learning

Pour Donald Feinberg, vice-président et Research Analyst chez Gartner, « la survie de toute entreprise dépendra d’une architecture agile, centrée sur les données. ».
Dans ces dernières prédictions, le cabinet estime que le Machine Learning va, d’ici 5 ans, bouleverser toutes les facettes du traitement et de l’analyse de données. De la qualité, gestion des métadonnées, Master Data Management, intégration jusqu’à l’administration des bases.

 

Analytique augmentée

C’est la tendance techno qui pourrait changer le marché de l’analytique. « Pour transformer la façon dont le contenu analytique est développé, consommé et partagé », cette technologie utilise des techniques d’apprentissage automatique (ML) et d’autres pans de l’Intelligence Artificielle.

Selon le cabinet, d’ici 2020, « l’analyse augmentée constituera la principale motivation des achats d’outils d’analytique et de BI, de plateformes de data science et de Machine Learning, et d’analytique intégrée ». Gartner recommande aux utilisateurs et aux directions IT de s’y intéresser dès à présent afin d’ajuster les modèles commerciaux et les opérations en conséquence pour que les entreprises ne perdent pas leur avantage concurrentiel.

 

Gestion des données augmentée

C’est l’autre tendance forte. Avec la montée en puissance du Machine Learning, d’ici 2022 selon Gartner, la gestion manuelle des données devrait être réduite de 45%. En automatisant de nombreuses tâches, il va permettre aux utilisateurs les moins qualifiés techniquement d’être plus autonomes dans l’utilisation des données. Dans le même temps, le Machine Learning « permet à des profils hautement qualifiés de se concentrer sur des tâches à forte valeur ajoutée. ».

« La gestion augmentée transforme les métadonnées. De passives, elles commencent à devenir actives, et elles deviennent un des moteurs principaux de l’IA / ML. Elles ne servent plus seulement à l’audit, à la traçabilité et à l’établissement des rapports. Elles commencent à alimenter des systèmes dynamiques. ».

 

Intelligence continue

C’est la troisième tendance clé. D’ici 2022, la moitié des nouveaux systèmes opérationnels intégreront de l’intelligence continue. Selon Rita Sallam, Vice-Présidente de la Recherche chez Gartner, « c’est un énorme défi et une très grande opportunité pour les équipes BI qui vont pouvoir désormais aider les métiers à prendre des décisions en temps réel plus intelligentes. On peut l’envisager comme ce qu’il y a de mieux en matière de BI opérationnelle. ».

L’intelligence continue est un concept propre à Gartner. Ce modèle intègre en temps réel de l’analytique à des processus opérationnels. Il s’appuie sur des données historiques. Mais également sur des données actuelles pour recommander des actions en réponse à des événements. Ici, plusieurs technologies sont exploitées comme l’analyse augmentée, le traitement de flux d’événements, l’optimisation, la gestion des règles Métier et le Machine Learning.

 

IA explicable

L’un des grands enjeux de l’IA, c’est d’éviter que les algorithmes deviennent des boites noires. Car certains modèles avancés sont tellement complexes, qu’il est impossible d’expliquer pourquoi ils ont abouti à une recommandation, ou à une décision spécifique. C’est pour cette raison que le cabinet recommande que l’IA soit explicable.

« Dans certains scénarios, les entreprises doivent justifier la manière dont ces modèles prennent leurs décisions. Pour créer un climat de confiance avec les utilisateurs et les parties prenantes, les responsables des applications doivent rendre ces modèles plus interprétables et explicables. ». Une piste avancée est que l’IA génère elle-même une explication en langage humain de ce qu’elle fait.

 

Graphes

Selon les prédictions de Gartner, l’analyse des graphes augmentera dans les années à venir « en raison de la nécessité de poser des questions complexes sur des données complexes, ce qui n’est pas toujours pratique ni même possible à grande échelle à l’aide de requêtes SQL. ». Le traitement graphique des données permettrait d’une part, d’accélérer de manière continue la préparation des données. Et d’autre part, de développer une science plus complexe et adaptative des données.

« Les magasins de données graphiques peuvent modéliser, explorer et interroger des données avec des relations complexes entre les silos. Mais leur adoption à ce jour est limitée par le manque de compétences spécialisées ».

 

Source : rapport publié en marge du Data & Analytic Summit qui s’est déroulé à Sydney au printemps 2019.

En réagissant à cet article, vous nous permettez d'affiner les contenus que nous publions ici !

  • Awesome (0)
  • Interesting (0)
  • Useful (0)
  • Boring (0)
  • Sucks (0)

Si cet article vous a plu, n’hésitez pas à le partager via