Data Ingénieur

LIGHT KITCH TUNISIE Tunis Publiée le 13 janvier 2026

Détails de l'annonce

Référence

234798

Date de publication

13 janvier 2026

Type de contrat

CDI

Lieu de travail

Tunis, Tunisie

Expérience requise

Entre 1 et 2 ans

Niveau d'études

Bac + 5

Salaire proposé

1500 - 2000 TND / Mois

Disponibilité

Plein temps

Langues

Français Anglais

Offres similaires

Stage PFE et Formation PRO

MSK-TECHNOLOGIES Sousse

Consultant SAP | Projets Internationaux

FREELANCE PROVIDER Tunis

L'ACCUMULATEUR TUNISIEN ASSAD logo

Consultant SAP S/4HANA

L'ACCUMULATEUR TUNISIEN ASSAD Nabeul

Entreprise

LIGHT KITCH TUNISIE

Secteur: commerce / vente / distribution

Taille: Moins de 20 employés

Description de l'annonce

 

Light Kitch crée et gère des restaurants virtuels sur les plateformes de livraison (Uber Eats, Deliveroo). Nous collectons et traitons quotidiennement des volumes importants de données transactionnelles issues de multiples sources (APIs plateformes, systèmes internes) pour piloter nos opérations et notre facturation.

En tant que Data Engineer, tu rejoindras une équipe tech agile où tu seras acteur de l'industrialisation de notre infrastructure data : construction de pipelines fiables, optimisation de notre data warehouse BigQuery, et automatisation des processus critiques pour le business. Tu travailleras en étroite collaboration avec les équipes finance, tech et opérationnel pour transformer des besoins métier en solutions data scalables.

Missions 

Infrastructure et pipelines de données

  • Construction de pipelines ETL/ELT robustes entre plateformes de livraison, BigQuery et outils de reporting

  • Structuration d'un data warehouse centralisé (BigQuery) pour unifier données financières, opérationnelles et commerciales

  • Modélisation de données (star schema, snowflake) optimisée pour performance et coûts

  • Orchestration de workflows automatisés avec monitoring (Airflow)

  • Mise en place de tests automatisés et détection d'anomalies (Data Quality)

Automatisation et intégrations

  • Développement d'une couche robuste pour consommer les APIs des plateformes

  • Transformation SQL modulaire et testable avec dbt

  • CI/CD et déploiement automatisé des pipelines

Compétences annexes (non bloquantes)

  • Infrastructure de scraping pour collecte de données 

  • Préparation infrastructure pour agents IA 

Compétences techniques

Attendus

  • Python avancé : pandas, requests, google-cloud, POO, tests unitaires

  • SQL avancé : CTEs, window functions, optimisation de requêtes

  • BigQuery : architecture, optimisation, coûts, partitionnement

  • GCP : Cloud Functions, Bucket, IAM, Secret Manager

  • Git : versioning, branches, code review

  • APIs REST : authentification OAuth2, pagination, gestion d'erreurs

  • Power BI : connexion BigQuery, modèles de données

  • dbt : transformations SQL, tests, documentation

  • Airflow

  • Docker et CI/CD (GitHub Actions, Cloud Build)

 

Bonus 

 

  • Web scraping : Request, Selenium, Playwright, retro engineering d’API

  • IA et agents : LangChain, LangGraph, RAG, APIs LLM (Claude, GPT)

Qualités personnelles

  • Autonomie : gestion de projets de bout en bout

  • Résilience : conception de systèmes auto-réparables

  • Pragmatisme : équilibre best practices / livraison rapide

  • Proactivité : anticipation et force de proposition

 

 

 

Partager: