Fondé en 1996, Claranet est un acteur majeur des services cloud en Europe. Véritable partenaire, nous accompagnons nos clients dans leur stratégie de transformation digitale et dans sa mise en œuvre, grâce à nos différentes expertises : Cloud, Sécurité, Data, DevOps, Microservices, Applications digitales. Claranet s'engage fermement à incarner les valeurs essentielles de respect, d'intégrité, de bienveillance, d'inclusion et de diversité. Nous croyons que chaque membre peut être un contributeur précieux et nous encourageons l'expression des idées et des opinions pour construire ensemble une entreprise dynamique et innovante. Tu nous rejoins en tant qu'Ingénieur Data au sein de la cellule Data Analytics, en charge des projets de modélisation et de restitution de la donnée que tu intègres. Tes missions : * Cadrage des besoins clients : Collaborer avec les parties prenantes pour comprendre les objectifs métier et définir les cas d'usage spécifiques à analyser ou optimiser à l'aide des données. * Collecte et ingestion des données : Mettre en place des pipelines pour extraire des données de diverses sources (bases de données, API, etc.) de manière efficace et scalable. * Nettoyage et transformation des données : Assurer la qualité des données en nettoyant, normalisant et transformant les données brutes pour les rendre exploitables. * Modélisation des données : Concevoir des modèles de données adaptés aux besoins de l'entreprise, optimisés pour le stockage, l'analyse ou l'exploitation en temps réel. * Mise en place de data lakes et data warehouses : Créer des structures de stockage centralisé pour les données historiques afin de faciliter leur analyse. * Optimisation des performances : Optimiser les bases de données et les flux de données pour réduire les temps de traitement et améliorer les performances globales. * Gestion des flux de données en temps réel : Implémenter des systèmes capables de traiter et d'analyser des données en temps réel (par exemple, avec des technologies comme Apache Kafka ou Spark). * Sécurité des données : S'assurer que les données sont stockées de manière sécurisée et conforme aux réglementations (RGPD, HIPAA, etc.). * Collaboration avec les data scientists et analystes : Travailler avec d'autres équipes pour s'assurer que les infrastructures de données répondent à leurs besoins en termes d'analyse ou de machine learning. * Surveillance et maintenance des pipelines : Surveiller et maintenir les pipelines de données pour s'assurer qu'ils fonctionnent correctement, et résoudre les problèmes techniques rapidement. * Automatisation et DevOps : Automatiser les tâches répétitives et utiliser les pratiques DevOps pour améliorer le développement et la gestion des infrastructures de données. Univers technologique: * Scala * Python * SQL * Spark * Solutions Data des Cloud provider : Azure (Azure Synapps Analytics, Azure Data Factory, Azure functions, Azure Databricks) ou AWS ou GCP * Power BI De formation supérieure ou autodidacte, tu possèdes de bonnes connaissances en base de données relationnelles et des solutions Clouds Publics (Azure, GCP, AWS). Tu es curieux(euse) de l'univers d'automatisation et du DevOps, avec une appétence pour la sécurité. Rigoureux(euse), organisé(e) tu as un bon esprit d'analyse. Ton aisance relationnelle et ta communication te permettrons de te légitimer facilement auprès des équipes en place et des clients. Anglais technique requis. Alors, ready to join us ? Type d'emploi : Temps plein, CDI Statut : Cadre Rémunération : à partir de 40¿000,00€ par an Avantages : * Intéressement et participation * Prise en charge du transport quotidien * RTT * Travail à domicile occasionnel Horaires : * Du lundi au vendredi * Travail en journée Lieu du poste : Télétravail hybride (59262 Sainghin-en-Mélantois)
🐍 python 🕥 Dernière mise à jour il y a 1 semaineDébutant accepté