Plans et tarifsInscrivez-vous gratuitement

Transformer et traiter

Créez des pipelines de données intuitifs avec le module Data Flow ou du code de précision avec Python et SQL.

Le concepteur idéal pour vos pipelines de données

Notre module de flux de données vous donne une vue d'ensemble de toutes les opérations, vous permettant de prévisualiser deux nœuds en même temps, de visualiser toutes les révisions, les annotations et les regroupements d'opérations, d'effectuer des zooms avant/arrière et des mini-cartes, d'aligner les grilles et bien plus encore. 

Plus de 35 nœuds de données pour toutes les tâches

Nous proposons plus de 35 nœuds de traitement différents (et d'autres sont ajoutés à chaque version), chacun avec des capacités uniques et puissantes prêtes à s'attaquer à vos données. Des filtres aux agrégats, de l'augmentation des données au nettoyage, de l'exécution Python à l'analyse complexe, nous sommes sûrs que nous avons tout ce qu'il vous faut.    
Tableaux
Utilisez cette option pour introduire des tables dans le site Data Flow et démarrer le pipeline. Vous pouvez avoir plusieurs tables d'entrée.
Transmettez les données à un tableau à n'importe quel moment du site Data Flow sous forme de tableaux finaux ou intermédiaires.
Créez une relation entre les tables à l'aide d'un éditeur de diagramme de relations entre entités.
Pour combiner plusieurs tables ayant un schéma identique ou similaire.
Filtre et regroupement
La façon la plus simple de créer un filtre pour vos données.
Lorsque vous souhaitez filtrer selon vos conditions et avec votre propre SQL.
Divisez vos données en lignes et en colonnes à l'aide de plusieurs agrégations.
Lorsque vos données arrivent sous forme de tableaux croisés dynamiques et que cela ne fonctionne pas.
Votre fonction de regroupement la plus simple avec plusieurs agrégats.
Calculs et recherches
Utilisez n'importe quelle fonction disponible dans SQL pour créer votre colonne calculée.
Calculer des agrégats de colonnes à partir d'autres tableaux en utilisant les valeurs de la ligne actuelle.
Consulter des données dans n'importe quelle autre table de votre data warehouse.
Réunir deux branches de flux de données en une seule.
Fusion ou union de deux ou plusieurs branches du flux de données en une seule.
Nettoyage des données
Il suffit de trouver et de remplacer des valeurs dans votre ensemble de données à l'aide de règles simples.
Un ensemble d'outils prêts à fixer la date et l'heure, les chiffres, le texte et bien d'autres choses encore.
Ajoutez des règles pour que les valeurs soient identiques et que les graphiques et les regroupements soient parfaits.
Indiquez les colonnes qui ne doivent pas avoir les mêmes valeurs, et elles seront supprimées.
Utilisez REGEX ou SQL pour transformer les données à l'aide d'un catalogue complet de fonctions.
Parfois, le type n'est pas correct. Changez le type d'une colonne en un autre type.  
Travaillez avec un sous-ensemble de colonnes pour accélérer et simplifier vos flux de données.

IA et augmentation
Demandez à l'IA n'importe quoi sur vos données et stockez les résultats dans une autre colonne.
Complétez votre adresse ou vos données géographiques par une latitude et une longitude.
Traduire le texte
翻訳 - Übersetzen - Μεταφράζω - Tradurre
Approfondissez vos données textuelles et trouvez des opinions au niveau du sujet ou au niveau global.
Transformez les données d'adresse IP en latitude et longitude avec ISP et plus encore.
Créez un résumé d'un texte long dans une nouvelle colonne.
Identifiez la langue du texte pour le post-traitement.
Parsing & Splitting
Analyse une colonne de texte en plusieurs colonnes.
Éclatez en lignes les données stockées dans une colonne.
Analyse JSON dans une structure de colonnes à partir de différents niveaux imbriqués.
Aplatissez une structure JSON en plusieurs lignes.
Concepteur et annotations
Ajoutez une étiquette et du texte à votre flux de données et gardez-le bien documenté.
Ajoutez un panneau d'arrière-plan pour regrouper les nœuds en opérations ou en blocs logiques.

Vous voulez coder à la place ?
Utilisez Data Scripts

Notre module Data Scripts va au-delà des statistiques avancées - il vous permet de modéliser, de nettoyer, d'améliorer, d'augmenter et de filtrer vos données à l'aide de SQL ou de Python. Créez des Data Flow puissants avec un code personnalisé adapté à vos besoins.

Exploitez n'importe quel paquetage Python disponible sur PyPI, y compris NumPy, Pandas, TensorFlow, et bien d'autres encore. Votre code s'exécute dans un environnement évolutif où vous ne payez que pour ce que vous utilisez.
En savoir plus sur Data Scripts 

Questions?

Maybe the answer is here and if not then simply reach out to us.

Are there limits to the type of Data Flows I can create?

Our Data Flows give you a lot of power to process your data. Ensuring a proper and efficient Data Flow is critical and for the most part there are no limits to what you can do with the Data Flows.

You can have as many as you want and there is no limit to the number of nodes you can put into one Data Flow.

Some operations are quite costly and may take longer if you do not plan and modularize your Data Flows but don’t worry, we can help you optimize them.

Can I configure where the Python scripts I write are executed?

Our Data Script module is available on our Dedicated Plans only and there is a good reason for that. It is because we also give you a dedicated environment to run your Python and SQL scripts. You can configure the number of CPUs and size of this environment. Soon you will be able to also add environments based on GPU with up to 160 GB of memory.

Can I use AI?

Absolutely. 

Our Data Flow comes with some ready to use OpenAI nodes that can help you get more out of your data. Additionally, we are adding some more advanced nodes every few releases such as advanced predictive modes, segmentation and more.

With Data Scripts you can even write your own AI using your own AI LLMs.  

Can I automate my Data Flows and Data Scripts?

Yes.

Our Schedule module enables you to execute Data Flows and Data Scripts at any point in your planned tasks. Additionally, you can also trigger their execution using Alerts, Data Hooks and our API.

Data Integration. Automation. Analytics.

Made for data people by data people.
Get started for free

Votre vie privée compte.

Cookies essentiels
Nécessaire pour les fonctionnalités du site web telles que notre chat de vente, les formulaires et la navigation. 
Cookies fonctionnels et analytiques
Nous aide à comprendre d'où viennent nos visiteurs en collectant des données d'utilisation anonymes.
Cookies publicitaires et de suivi
Utilisé pour diffuser des annonces pertinentes et mesurer les performances publicitaires sur des plateformes telles que Google, Facebook et LinkedIn.
Tout accepterSauvegarderTout refuser