Ataccama acquiert Tellstory, la start-up de visualisation de données

La plate-forme de gestion de données Ataccama a annoncé aujourd’hui l’acquisition du fournisseur de visualisation de données Tellstory. Les termes du contrat ne sont pas divulgués.

Les outils de visualisation des données permettront aux utilisateurs finaux d’obtenir plus facilement des informations à partir des données résidant sur la plate-forme Ataccama ONE Gen2, a déclaré le PDG d’Ataccama, Michal Klaus.

Tellstory sera disponible en tant qu’outil multi-locataires, avec une version gratuite fournie aux clients d’Ataccama ONE Gen2 GA le mois prochain. Tellstory sera plus étroitement intégré dans la plate-forme de gestion de données d’Ataccama plus tard cette année, a ajouté Klaus.

La plate-forme Ataccama ONE Gen2 est un système expert qui a été optimisé pour gérer de grands volumes de données disparates, a déclaré Klaus. Il permet aux organisations de créer des profils de données, de suivre la surveillance de la qualité des données, de configurer des aperçus de données pour mieux comprendre la relation entre les différents ensembles de données et d’appliquer les politiques qui déterminent quels utilisateurs finaux sont autorisés à accéder à quelles données. Les outils de visualisation de Tellstory simplifieront la navigation des utilisateurs finaux dans le catalogue de données Ataccama lorsqu’ils invoquent les outils d’analyse existants fournis dans la plate-forme, a expliqué Klaus.

Malgré l’intérêt pour la transformation numérique de l’entreprise, l’un des plus gros problèmes auxquels toute organisation est confrontée aujourd’hui est qu’elle ne sait tout simplement pas de quelles données elle dispose. Malheureusement, la plupart des organisations n’apprécient pas toujours l’ampleur des défis de gestion des données auxquels elles sont confrontées tant qu’une initiative ne se heurte pas à des obstacles. «L’une des raisons pour lesquelles nous sommes appelés est qu’il y a eu un projet qui a échoué», a déclaré Klaus.

À plus long terme, Klaus a déclaré que l’objectif était de permettre aux utilisateurs finaux de naviguer dans les ensembles de données en utilisant des langages de requête naturels et des interfaces vocales. Pour l’instant, la priorité est simplement de faciliter la navigation des développeurs dans les données dont ils disposent, a-t-il déclaré.

Le défi auquel les organisations sont confrontées, cependant, n’est pas seulement le volume de données qui doivent être organisées et analysées. Le nombre de types de données que les organisations collectent ne cesse d’augmenter pour inclure, par exemple, des données non structurées sous forme de vidéo. Les organisations doivent pouvoir appliquer des méta-balises aux données au fur et à mesure de leur création si elles prévoient d’utiliser ces données pour prendre de meilleures décisions commerciales.

On peut soutenir que tout l’intérêt d’investir dans une initiative de transformation numérique de l’entreprise est de permettre des décisions commerciales basées sur des faits plutôt que sur l’intuition. Le défi est que même lorsque les données sont accessibles, elles sont souvent conflictuelles car différentes applications ne sont généralement pas mises à jour en même temps. Le système expert d’Ataccama identifie les données qui ont été les plus récemment mises à jour, ainsi que toute version principale d’un ensemble de données qui a été désigné. Cette capacité permet aux utilisateurs finaux d’identifier plus facilement les écarts entre les différents ensembles de données.

Il existe une grande opportunité d’améliorer la gestion des données à l’aide d’algorithmes de machine et d’apprentissage en profondeur capables d’identifier des modèles. Mais les données ont tendance à varier considérablement selon les segments de l’industrie, ce qui signifie que les modèles d’IA et les systèmes experts doivent être formés pour reconnaître, par exemple, la nomenclature spécifique à ce secteur.

De toute évidence, il devient plus facile de former des modèles d’IA lorsque les données sont organisées. Et plus la qualité des données utilisées pour entraîner un modèle d’IA est élevée, plus elles deviennent précises. En tant que tel, les organisations souhaitant investir dans l’IA seraient bien avisées de se concentrer d’abord sur les principes fondamentaux de la gestion des données. Sinon, ils se retrouveront à embaucher des data scientists très coûteux qui passeront la plupart de leur temps à résoudre les problèmes de plomberie de données de bas niveau qui auraient déjà dû être résolus par le personnel informatique interne.

VentureBeat

La mission de VentureBeat est d’être une place de ville numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie transformatrice et d’effectuer des transactions.

Notre site fournit des informations essentielles sur les technologies de données et les stratégies pour vous guider dans la conduite de vos organisations. Nous vous invitons à devenir membre de notre communauté, pour accéder:

  • des informations à jour sur les sujets qui vous intéressent
  • nos newsletters
  • contenu de leader d’opinion fermé et accès à prix réduit à nos événements prisés, tels que Transform
  • fonctionnalités de mise en réseau, et plus

Devenir membre

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *