Passionné par l'innovation pédagogique et les technologies éducatives, je conçois et développe des solutions e-learning assistées par IA sur mesure pour structurer et industrialiser la production de contenus de formation.
Développement d'expériences d'apprentissage interactives et engageantes
Technologies et méthodologies maîtrisées
Android, SpringBoot, React, Python
Ingénierie pédagogique, Learning Analytics
SCORM, xAPI, Moodle, Articulate, MOOC
Gestion de projet, Agile, Scrum, Kanban
FTTH 2/3
Sécurité incendie et sureté
Derniers articles et ressources
À $4 699 le DGX Spark, $20/mois Ollama Pro, $1.38/h le H100 en cloud — le calcul est vite fait. Ce benchmark compare toutes les options disponibles en 2026 pour faire tourner des LLMs, de l'inférence au fine-tuning. Verdict : le Spark est un objet de luxe, pas un outil rentable. La vraie raison d'acheter du hardware local en 2026 n'est pas économique — elle est politique.
Et si la sécurité de votre IA ne dépendait pas d'un prompt mais d'un système de fichiers ? Ce manifeste d'architecture définit une matrice 4×4 — zone physique × droit d'accès LLM — qui rend mécaniquement impossible la fuite de secrets, le mélange open/closed source, et la publication d'opinions déguisées en faits. Aucun prompt à écrire. Aucune règle à retenir. Juste des dossiers.
`foundry/` mélangeait code open source et code private dans le même dossier. Le RAG et le knowledge graph ne savaient pas faire la différence. La solution ? Couper cette zone fonctionnelle en deux — OSS/ pour le public (Apache 2.0, indexation libre), CSS/ pour le closed source (dataset privé uniquement). Plus besoin de dire au LLM d'être prudent. Le système de fichiers le fait pour lui. Et j'en ai profité pour ranger cheroliv.com là où il aurait toujours dû être : dans office/sites/.
Prêt à démarrer votre projet ? Contactez-moi !