Postée il y a 17 heures
? Nous vous serions reconnaissants de bien vouloir nous adresser un bref message expliquant les raisons de votre candidature et votre intérêt pour cette mission.
? Par ailleurs, nous vous remercions de nous confirmer que vous avez bien pris en compte le lieu de la mission ainsi que l?obligation de présence sur site trois jours par semaine.
? La mission ne peut pas se faire en full Remote (Présence sur site hebdo obligatoire - Condition non négociable)
Dans le cadre de la préparation et de l'exploitation des données au sein d?un écosystème Big Data, nous recherchons un Leader Technique ayant pour mission principale d?accompagner la conception et le développement d?outils facilitant l?accès et l?utilisation des données. Il sera en charge de la préparation et de l?exposition des données via des solutions de datavisualisation et des socles d?exposition via API. Son rôle consistera à assurer la mise en place de solutions robustes, performantes et accessibles, permettant aux utilisateurs de devenir autonomes dans l?exploitation des données. Il participera activement à la conception et au développement des composants back et front, à l'automatisation du déploiement, ainsi qu?au maintien et à l?évolution des outils en production. Une veille technologique sera également attendue afin d?intégrer les meilleures pratiques et innovations du marché.
Profil candidat:
Nous recherchons un expert technique possédant une solide expérience en développement back-end (Java/Quarkus), en gestion d?infrastructure CI/CD (Git, Concourse, Docker, Kubernetes) et en administration de bases de données (PostgreSQL, SolR/Elastic). Une bonne autonomie, un esprit collaboratif et une capacité d?adaptation aux évolutions produits seront des atouts essentiels. Une connaissance des technologies Big Data (Hadoop, Spark, Kafka, Flink) et des outils ETL serait un plus apprécié.
Technologies indispensablesCI/CD & Déploiement : Git, Concourse, Docker, Kubernetes
Développement Back-end : Java, Quarkus, Shell, Linux
Bases de Données & Recherche : PostgreSQL, SolR, ElasticSearch
Automatisation & Maintenance : Automatisation des tests, gestion des mises en production
Technologies souhaitées (un plus)Big Data & Streaming : Hadoop, Spark, Kafka, Flink
ETL & Traitement des Données : Hive, Sqoop
API & Exposition des Données : Développement et optimisation d?APIs