À propos du poste En tant que Data Engineer, tu seras un élément clé dans la mise en place des infrastructures de données et des interfaces nécessaires à la gestion de la donnée. Ton rôle : concevoir et développer des solutions robustes, tester les interfaces techniques, et proposer des améliorations continues pour accélérer la livraison des projets. Ce que tu feras au quotidien : * Créer des spécifications techniques : Tu rédigeras des spécifications détaillées pour les objets techniques et les interfaces, en veillant à la qualité et à la cohérence des processus. * Développer des objets techniques et des interfaces : Tu t'occuperas du développement des solutions de stockage de données (dataware/datamart), ainsi que des interfaces d'ingestion et de propagation des données. * Tester les interfaces techniques : Tu effectueras des tests techniques pour garantir la bonne performance des interfaces, en détectant et résolvant les éventuels bugs. * Améliorer continuellement les processus : Tu participeras activement à l'amélioration du processus de livraison, en suggérant des moyens d'optimiser les délais de développement et de tester. * Tester les intégrations des interfaces : Tu t'assureras que les interfaces fonctionnent correctement avec les autres systèmes, en réalisant des tests d'intégration approfondis. * Gestion de l'exécution : Tu seras responsable de l'exécution des processus, en assurant leur bon fonctionnement au quotidien. * Participer à des ateliers : Tu animeras des ateliers avec les partenaires utilisant nos interfaces, ainsi qu'avec les Data Architects pour définir un design technique adapté aux besoins des utilisateurs. * Évaluation de la complexité d'implémentation : Tu évalueras la faisabilité technique des projets et la complexité des solutions à mettre en place. * Rédiger des documents techniques : Tu veilleras à la documentation claire et complète des objets techniques et des spécifications des interfaces. * Mettre en place des tests unitaires : Tu réaliseras des tests unitaires pour assurer la qualité du code et le bon fonctionnement des interfaces avant leur mise en production. * Proposer des améliorations : Tu seras proactif(ve) en suggérant des améliorations tant pour le processus de livraison que pour la plateforme, afin d'en améliorer la performance et l'efficacité. Profil recherché Les pré-requis pour intégrer notre équipe : * Expertise technique avancée sur les solutions GCP : Composer, Dataflow (en Java), Cloud Run, Cloud Pub/Sub, BigQuery, Pub/Sub, MongoDB, Terraform, Dataform * Langages et frameworks à maîtriser : Java, JavaScript, SQL, Python (un atout), Spring Boot, Apache Beam, Apache Airflow * Capacité à comprendre et à répondre aux exigences fonctionnelles : Comprendre les objets de données modélisés fournis et intégrer les données provenant des interfaces sources dans ces objets modélisés. Soft skills : * Rigueur : Tu cherches toujours l'excellence dans la réalisation des tâches - "Ce qui est fait, n'a pas besoin d'être refait". * Esprit d'équipe : Tu partages l'information et les connaissances avec ton équipe - "Seul on va vite, ensemble on va loin". * Ingéniosité : Ce rôle implique une compréhension fonctionnelle, la modélisation d'objets, des implémentations techniques et des tests. Tu sauras t'adapter aux tâches multidisciplinaires qui se présenteront. * Responsabilité : Autonome dans tes tâches, tu fais preuve de sérieux, d'engagement, et tu es responsable de tes livrables. Type d'emploi : CDI Statut : Cadre Rémunération : 40 000,00€ à 47 637,00€ par an Avantages : * Prise en charge du transport quotidien * RTT * Travail à domicile occasionnel Horaires : * Du lundi au vendredi * Travail en journée Lieu du poste : En présentiel
🐍 python 🕥 Dernière mise à jour il y a 1 moisDébutant accepté