Poste
- Responsabilités : Concevoir, construire et entretenir des pipelines de données robustes et une infrastructure analytique.
- Mise en œuvre : Amélioration des processus de traitement et d'orchestration des données.
Compétences
- Techniques : Python, SQL avancé, Spark / PySpark, ETL/ELT (dbt, Fivetran, Airbyte, Talend).
- Infra : Entrepôts cloud (Snowflake, BigQuery, Redshift), orchestration (Apache Airflow, Prefect, Dagster).
- Formats : Connaissance de Parquet, Avro, Delta Lake.
Profil
- Background : Bac+4/5 en Informatique ou similaire.
- Expérience : 3 à 6 ans en ingénierie des données.
- Atouts : Rigueur, organisation, résolution de problèmes.
Candidature
Cliquez sur le bouton "Postuler" pour soumettre votre candidature.