Plans et tarifsInscrivez-vous gratuitement

Votre Outil ETL Tout-en-Un

Construisez vos pipelines de données rapidement avec le module Data Flow ou avec Python et SQL pour des transformations et calculs plus avancés.

L'outil idéal pour vos pipelines de données

Notre module Data Flow vous offre une vue d'ensemble de toutes les opérations et vous permet de prévisualiser deux nodes en même temps, de visualiser toutes les révisions, les annotations et les regroupements d'opérations, d'effectuer des zooms avant/arrière et des mini-cartes, d'aligner les grilles et bien plus encore. 

Plus de 35 nodes de données pour toutes les tâches

Nous proposons plus de 35 nodes de traitement différents (et d'autres ajoutés à chaque version), chacun avec des capacités uniques et puissantes prêtes à s'attaquer à vos données. Des filtres aux agrégats, de l'augmentation des données au nettoyage, de l'exécution Python à l'analyse complexe, nous sommes sûrs que nous avons tout ce qu'il vous faut.    
Tables
Utilisez ce node pour démarrer votre pipeline dans Data Flow. Vous pouvez avoir plusieurs tables en input.
Générez une table de sortie finale ou intermédiaire à n'importe quelle étape dans votre Data Flow.
Reliez vos tables via un éditeur de diagrammes relationnels complet.
Combinez plusieurs tables ayant un schéma identique ou similaire.
Filtres & Regroupements
La façon la plus simple de filtrer vos données.
Filtrez selon vos conditions et avec des requêtes SQL.
Pivotez vos données en lignes et en colonnes avec plusieurs agrégations.
Dépivotez vos données arrivant sous forme de tableaux croisés dynamiques.
La fonction de regroupement la plus simple avec plusieurs agrégats.
Calculs & Lookup
Utilisez n'importe quelle fonction SQL pour créer votre colonne calculée.
Générez des agrégats en croisant la ligne actuelle avec les données d’autres tables.
Interrogez n'importe quelle autre table de votre data warehouse.
Réunissez deux branches Data Flow en une seule.
Fusionnez deux ou plusieurs branches de votre Data Flow.
Nettoyage des données
Nettoyez rapidement selon des règles simples avec le node Find & Replace.
Nettoyez rapidement les données mal renseignées : date et heure, nombres, texte et bien d'autres.
Homogénéisez vos données pour générer des regroupements et visualisations propres.
Eliminez les données dupliquées dans vos tables en quelques clics.
Appliquez des transformations avec REGEX ou SQL grâce à une bibliothèque complète de fonctions intégrées.
Adaptez le type d’une colonne si les données ne correspondent pas au format attendu.  
Gardez l’essentiel. Travaillez avec un sous-ensemble de colonnes pour optimiser vos flux.

IA & Processing
Demandez à l’IA d’analyser vos données et stockez sa réponse dans une colonne dédiée.
Complétez des adresses ou données géographiques avec une latitude et une longitude.
Traduisez du texte, peu importe la langue
翻訳 - Übersetzen - Μεταφράζω - Tradurre
Explorez vos données textuelles pour détecter les sentiments, au niveau global ou par thématique.
Transformez les données d'adresse IP en latitude et longitude avec ISP et plus encore.
Générez un résumé de n'importe quel texte long dans une nouvelle colonne.
Identifiez la langue du texte pour le post-traitement.
Parsing & Découpage
Parsez une colonne de texte en plusieurs colonnes.
Transformez les valeurs d’une colonne en lignes distinctes.
Parsez du JSON pour aplatir les données imbriquées en colonnes.
Aplatissez des structures JSON en plusieurs lignes.
Designer & Annotations
Ajoutez des labels pour documenter les étapes de transformation dans votre Data Flow.
Ajoutez des backgrounds pour regrouper les nodes en opérations ou blocs logiques.

Vous préférez coder ?
Utilisez Data Scripts

Le module Data Scripts va plus loin que les statistiques avancées. Nettoyez, modélisez, filtrez ou enrichissez vos données avec du code SQL ou Python. Intégrez vos scripts dans des Data Flows personnalisés, adaptés à vos cas d’usage.

Exploitez n'importe quel package Python disponible sur PyPI, y compris NumPy, Pandas, TensorFlow, et bien d'autres encore. Votre code s'exécute dans un environnement intégré et évolutif où vous ne payez que pour ce que vous utilisez.
En savoir plus sur Data Scripts 

Des questions ?

La réponse se trouve peut-être ici et si ce n'est pas le cas, il vous suffit de nous contacter.

Y a-t-il des limites au type de Data Flow que je peux créer ?

Nos Data Flow vous donnent beaucoup de pouvoir pour traiter vos données. Il est essentiel de veiller à ce que le Data Flow soit correct et efficace et, pour l’essentiel, il n’y a pas de limites à ce que vous pouvez faire avec les Data Flows.

Vous pouvez en avoir autant que vous le souhaitez et il n’y a pas de limite au nombre de nœuds que vous pouvez mettre dans un Data Flow.

Certaines opérations sont assez coûteuses et peuvent prendre plus de temps si vous ne planifiez pas et ne modulez pas vos Data Flow mais ne vous inquiétez pas, nous pouvons vous aider à les optimiser.

Puis-je configurer l'endroit où les scripts Python que j'écris sont exécutés ?

Notre module Data Scripts est disponible uniquement sur nos plans dédiés et il y a une bonne raison à cela. En effet, nous vous fournissons également un environnement dédié pour exécuter vos scripts Python et SQL. Vous pouvez configurer le nombre de CPU et la taille de cet environnement. Bientôt, vous pourrez également ajouter des environnements basés sur le GPU avec jusqu’à 160 Go de mémoire.

Puis-je utiliser l'IA ?

Absolument.

Notre Data Flow est livré avec des nodes OpenAI prêts à l’emploi qui peuvent vous aider à tirer le meilleur parti de vos données. De plus, nous ajoutons des nodes plus avancés toutes les quelques versions, tels que des modes prédictifs avancés, la segmentation et plus encore.

Avec Data Scripts, vous pouvez même écrire votre propre IA en utilisant vos propres LLM d’IA.

Puis-je automatiser mes Data Flow et Data Scripts ?

Oui.

Notre module Schedule vous permet d’exécuter des Data Flow et des Data Scripts à n’importe quel moment de vos tâches planifiées. En outre, vous pouvez également déclencher leur exécution à l’aide d’alertes, de Data Hooks et de notre API.

Intégration des données. Automatisation. Analyse.
Conçu pour les utilisateurs de données par des utilisateurs de données.
Commencez gratuitement
Nous utilisons des cookies.
Nous utilisons des cookies nécessaires au fonctionnement de notre site. Nous aimerions également utiliser des cookies facultatifs qui nous aident à améliorer notre site ainsi qu'à des fins d'analyse statistique et de publicité. Nous ne placerons pas ces cookies facultatifs sur votre appareil si vous n'y consentez pas. Pour en savoir plus, veuillez consulter notre avis sur les cookies.

Si vous refusez, vos informations ne seront pas suivies lorsque vous visiterez ce site web. Un seul cookie sera utilisé dans votre navigateur pour mémoriser votre préférence de ne pas être suivi.
Cookies essentiels
Nécessaire pour les fonctionnalités du site web telles que notre chat de vente, les formulaires et la navigation. 
Cookies fonctionnels et analytiques
Nous aide à comprendre d'où viennent nos visiteurs en collectant des données d'utilisation anonymes.
Cookies publicitaires et de suivi
Utilisé pour diffuser des annonces pertinentes et mesurer les performances publicitaires sur des plateformes telles que Google, Facebook et LinkedIn.
Tout refuserAccepter