Data Engineer / Data Ops GCP (IT)

Les missions du poste

Nous recherchons un Consultant GCP spécialisé en Data Engineering et DataOps pour accompagner nos clients dans la mise en place et l?optimisation de leurs solutions de données sur Google Cloud Platform (GCP). Vous serez en charge de la conception, du développement et de la gestion des pipelines de données, tout en garantissant des processus DevOps efficaces pour l?intégration continue et le déploiement.

Missions :

Data Engineering :

Concevoir et développer des pipelines de données sur GCP (BigQuery, Cloud Storage, Dataflow, etc.).


Développer des scripts Python pour automatiser le traitement des données.


Implémenter des modèles et des transformations de données avec DBT et SQL.


Garantir la qualité des données et optimiser les performances des requêtes.




DataOps :

Déployer des solutions de DataOps sur Kubernetes et Docker.


Mettre en place et gérer des processus CI/CD sur GitLab pour l'automatisation des déploiements.


Utiliser Helm pour gérer des applications et services dans Kubernetes.


Collaborer avec les équipes DevOps pour améliorer les workflows et la scalabilité des solutions data.





Compétences requises :

GCP : BigQuery, Dataflow, Cloud Storage, Composer, etc.


Data Engineering : Python, SQL, DBT, ETL, modélisation de données.


DataOps : Kubernetes, Docker, GitLab CI/CD, Helm, Cloud-native tools.


Excellente maîtrise des outils de gestion de version (Git).


Capacité à travailler dans un environnement agile et à collaborer avec des équipes pluridisciplinaires.



Profil recherché :

Vous justifiez d?une expérience significative en tant que Consultant Data Engineering ou DataOps, avec une forte expertise GCP.


Vous êtes autonome, rigoureux(se) et avez une capacité à résoudre des problèmes complexes.


Vous êtes passionné(e) par les technologies cloud et souhaitez évoluer dans un environnement innovant.





Profil candidat:
Nous recherchons un Consultant GCP spécialisé en Data Engineering et DataOps pour accompagner nos clients dans la mise en place et l?optimisation de leurs solutions de données sur Google Cloud Platform (GCP). Vous serez en charge de la conception, du développement et de la gestion des pipelines de données, tout en garantissant des processus DevOps efficaces pour l?intégration continue et le déploiement.

Missions :

Data Engineering :

Concevoir et développer des pipelines de données sur GCP (BigQuery, Cloud Storage, Dataflow, etc.).


Développer des scripts Python pour automatiser le traitement des données.


Implémenter des modèles et des transformations de données avec DBT et SQL.


Garantir la qualité des données et optimiser les performances des requêtes.




DataOps :

Déployer des solutions de DataOps sur Kubernetes et Docker.


Mettre en place et gérer des processus CI/CD sur GitLab pour l'automatisation des déploiements.


Utiliser Helm pour gérer des applications et services dans Kubernetes.


Collaborer avec les équipes DevOps pour améliorer les workflows et la scalabilité des solutions data.





Compétences requises :

GCP : BigQuery, Dataflow, Cloud Storage, Composer, etc.


Data Engineering : Python, SQL, DBT, ETL, modélisation de données.


DataOps : Kubernetes, Docker, GitLab CI/CD, Helm, Cloud-native tools.


Excellente maîtrise des outils de gestion de version (Git).


Capacité à travailler dans un environnement agile et à collaborer avec des équipes pluridisciplinaires.



Profil recherché :

Vous justifiez d?une expérience significative en tant que Consultant Data Engineering ou DataOps, avec une forte expertise GCP.


Vous êtes autonome, rigoureux(se) et avez une capacité à résoudre des problèmes complexes.


Vous êtes passionné(e) par les technologies cloud et souhaitez évoluer dans un environnement innovant.

Lieu : Paris
Contrat : CDI
Salaire : 45 000 € par an
Accueil / Emploi / Emploi Paris / Emploi