Détails de l'annonce
Référence
234798
Date de publication
13 janvier 2026
Type de contrat
CDILieu de travail
Tunis, Tunisie
Expérience requise
Entre 1 et 2 ans
Niveau d'études
Bac + 5
Salaire proposé
Disponibilité
Plein temps
Langues
Français Anglais
Offres similaires
Stage PFE et Formation PRO
MSK-TECHNOLOGIES • Sousse
Consultant SAP | Projets Internationaux
FREELANCE PROVIDER • Tunis
Développeur Front-End Angular Sénior (H/F)
CRIT • Toulouse
Consultant SAP S/4HANA
L'ACCUMULATEUR TUNISIEN ASSAD • Nabeul
Advanced Cloud Engineer / Workplace Engineer
CPL JOBS • Ariana
Entreprise
LIGHT KITCH TUNISIE
Secteur: commerce / vente / distribution
Taille: Moins de 20 employés
Description de l'annonce
Light Kitch crée et gère des restaurants virtuels sur les plateformes de livraison (Uber Eats, Deliveroo). Nous collectons et traitons quotidiennement des volumes importants de données transactionnelles issues de multiples sources (APIs plateformes, systèmes internes) pour piloter nos opérations et notre facturation.
En tant que Data Engineer, tu rejoindras une équipe tech agile où tu seras acteur de l'industrialisation de notre infrastructure data : construction de pipelines fiables, optimisation de notre data warehouse BigQuery, et automatisation des processus critiques pour le business. Tu travailleras en étroite collaboration avec les équipes finance, tech et opérationnel pour transformer des besoins métier en solutions data scalables.
Missions
Infrastructure et pipelines de données
-
Construction de pipelines ETL/ELT robustes entre plateformes de livraison, BigQuery et outils de reporting
-
Structuration d'un data warehouse centralisé (BigQuery) pour unifier données financières, opérationnelles et commerciales
-
Modélisation de données (star schema, snowflake) optimisée pour performance et coûts
-
Orchestration de workflows automatisés avec monitoring (Airflow)
-
Mise en place de tests automatisés et détection d'anomalies (Data Quality)
Automatisation et intégrations
-
Développement d'une couche robuste pour consommer les APIs des plateformes
-
Transformation SQL modulaire et testable avec dbt
-
CI/CD et déploiement automatisé des pipelines
Compétences annexes (non bloquantes)
-
Infrastructure de scraping pour collecte de données
-
Préparation infrastructure pour agents IA
Compétences techniques
Attendus
-
Python avancé : pandas, requests, google-cloud, POO, tests unitaires
-
SQL avancé : CTEs, window functions, optimisation de requêtes
-
BigQuery : architecture, optimisation, coûts, partitionnement
-
GCP : Cloud Functions, Bucket, IAM, Secret Manager
-
Git : versioning, branches, code review
-
APIs REST : authentification OAuth2, pagination, gestion d'erreurs
-
Power BI : connexion BigQuery, modèles de données
-
dbt : transformations SQL, tests, documentation
-
Airflow
-
Docker et CI/CD (GitHub Actions, Cloud Build)
Bonus
-
Web scraping : Request, Selenium, Playwright, retro engineering d’API
-
IA et agents : LangChain, LangGraph, RAG, APIs LLM (Claude, GPT)
Qualités personnelles
-
Autonomie : gestion de projets de bout en bout
-
Résilience : conception de systèmes auto-réparables
-
Pragmatisme : équilibre best practices / livraison rapide
-
Proactivité : anticipation et force de proposition