Aller au contenu

AI & GenAI Engineer

  • Sur site
    • ouagadougou, Centre, Burkina Faso

Description de l'offre d'emploi

RAISON D’ÊTRE

Concevoir, développer et industrialiser des solutions d’intelligence artificielle et d’IA générative (LLM, RAG, agents, deep learning) répondant aux cas d’usage métiers tout en garantissant qualité, sécurité, éthique et conformité.

MISSIONS PRINCIPALES

  • Concevoir, prototyper et déployer des modèles IA/GenAI (LLM, fine‑tuning, RAG, agents). 

  • Développer pipelines de préparation des données, embeddings, indexation et workflows RAG.

  • Mettre en place et maintenir les pratiques MLOps/LLMOps (CI/CD, monitoring, tests).

  •  Optimiser l’inférence (quantization, batching, serveurs d’inférence) pour réduire latence et coûts.

  • Assurer la sécurité, la confidentialité et la gouvernance des modèles (RGPD, gestion des données sensibles).

  • Documenter, former les équipes métiers et réaliser une veille technologique active

PRINCIPALES OBLIGATIONS ET RESPONSABILITES

  • Développement et intégration : APIs/microservices (FastAPI), packaging Docker, orchestration Kubernetes.

  • Conception et exécution de tests d’évaluation (qualité, biais, robustesse, adversarial tests).

  • Implémentation de pipelines d’embeddings et utilisation de vector DB (FAISS, Milvus, Pinecone, Weaviate).

  • Monitoring et gestion des incidents (latence, dérive, hallucinations) ; mise en place d’alerting et dashboards.

  • Collaboration avec équipes produit/métiers pour traduire besoins en solutions techniques.

  • Rédaction d’artefacts : architecture, guides prompt engineering, templates de prompts, playbooks sécurité.

  • Veille technologique et prototypage d’innovations applicables

Pré-requis du poste

COMPETENCES ET QUALITES NECESSAIRES 

  1.    Compétences techniques :

  • Langages & frameworks : Python, PyTorch, TensorFlow, HuggingFace.

  • Outils GenAI : LangChain, LlamaIndex, Haystack.

  • Vector DBs : FAISS, Milvus, Pinecone, Weaviate.

  • API / serveurs : FastAPI, Flask, Triton, TorchServe, ONNX

  • Conteneurisation / orchestration : Docker, Kubernetes.

  • Cloud : AWS / GCP / Azure (SageMaker, Vertex AI) et gestion GPU/TPU.

  • MLOps/LLMOps : CI/CD modèles, tracking d’expériences, monitoring dérive, tests automatisés.

  • Techniques : fine‑tuning, instruction tuning, quantization, distillation, RAG, embeddings.

  • Sécurité & gouvernance : RGPD, gestion des secrets, contrôles d’accès, auditabilité.

 

2.    Compétences transverses :

  • Forte capacité d’analyse et de résolution de problèmes.

  • Excellente communication pour vulgariser des concepts techniques.

  • Leadership et capacité à travailler en mode projet avec des équipes pluridisciplinaires.

  • Esprit critique

  • Esprit de synthèse

  • Travail en équipe

  • Rigueur

  • Sens de l’innovation et orientation client

QUALIFICATIONS ET EXPERIENCE

  • Formation-type : Justifier de minimum un Bac+4/5 en Intelligence Artificielle, Informatique, Data Science ou équivalent ;

  • Expérience minimum : Justifier de minimum trois (03) ans d’expérience en développement et déploiement de modèles IA/GenAI (LLM, NLP, RAG, agents).

ou