Accueil
À propos de l'employeur :
Codezys
Codezys

Critères de l'offre :

Fonction
Développeur·euse Big Data
Contrat
CDI
Heures
Temps partiel
Salaire
Plus de 3500€
Expérience
Non précisé
Diplôme
Bac + 3 / Bac + 4
Partager :

Description de l'offre

Poste : Data Engineer


Nombre de postes : 1


Expérience : > 7 ans


TJM d’achat max : 500€ 


Localisation : Île-de-France


Deadline réponse : 10/02/2026


Démarrage : 09/03/2026, mission longue durée


Type de contrat : Salarié ou Freelance



1) Descriptif de la mission

La mission se déroule au sein d’une équipe dédiée au développement d’outils, de méthodes et d’industrialisation pour un acteur majeur du secteur ferroviaire. L’objectif est de soutenir un périmètre spécifique concernant un outil d’analyse de la régularité des circulations, basé sur un ensemble de flux issus du système d’information de l’opérateur.


Ce périmètre comprend l’accès à des données consolidées et prêtes à l’analyse, permettant aux équipes métier d’utiliser des données fiables. La mission concerne notamment :



  • Assurer la continuité d’alimentation des flux de données pour l’outil et l’équipe technique,

  • Adapter, développer, corriger et déployer des processus ETL lors de migrations de données,

  • Intégrer de nouveaux flux de données en garantissant l’absence de régression,

  • Maintenir ces flux en production et garantir leur disponibilité,

  • Définir des formats d’échange pour alimenter l’outil,

  • Mettre en place des indicateurs de supervision,

  • Accompagner l’équipe dans l’exploitation des nouveaux flux.



2) Livrables attendus

Le cahier des charges précise une liste de livrables avec des délais indicatifs :



  • Recette de l’API : Document de validation, comparaison entre anciennes et nouvelles données issues du nouveau format.

  • Déploiement : Paquets SSIS / SQL déployés, paramétrage automatique, documentation d’intégration.

  • Processus de rattrapage simple : Documentation, industrialisation, déploiement, artefacts dans un environnement de gestion de versions.

  • Documentation des nouvelles données : Note explicative sur la nature et l’utilisation des nouvelles données.

  • Format d’échange : Documentation complète du schéma d’échange de données.

  • Déploiement des flux : Projets SSIS / SQL, documentation du chargement, déploiement en environnement de production.

  • Processus de rattrapage complexe : Développement, déploiement et documentation complète.

  • KPI BI : Mise en place d’un tableau de bord avec suivi de l’intégration, des erreurs et de la disponibilité des flux en production.



Profil candidat:

Technologies obligatoires :



  • SQL Server 2019

  • SSIS (développement de packages, automatisation, industrialisation)

  • Python (traitements DATA, automatisation, manipulation de fichiers parquet)


Technologies appréciées :



  • Spark (traitement de données volumétriques)

  • C# (intégration, scripts complémentaires)

  • Power BI (mise en place de KPI, rapports, tableaux de bord)


Outils & écosystème Transport:



  • Azure DevOps (versioning, pipelines, projets SSIS/SQL)

  • Connaissance des gisements et modèles :


    • ATESS

    • GAIA / GAIA VE

    • Modèle ARIANE

    • Données réseau BASIC

    • Gisements ferroviaires



Méthodologie : Agile / SCRUM avec daily, ateliers, revues, rétrospectives en présentiel toutes les 3 semaines.


Soft skills requis :



  • Autonomie et rigueur

  • Bonne communication

  • Flexibilité

  • Capacité d’analyse

  • Capacité à accompagner une équipe sur des sujets DATA complexes


Offres similaires

loading spinner