Securing Ollama: Protecting Your AI Applications

Une vulnérabilité de sécurité alarmante a été découverte dans Ollama, un projet open-source largement utilisé pour l’inférence de réseaux neuronaux. Identifiée sous le nom de CVE-2024-37032 et nommée Probllama, cette faille permet l’exécution de code à distance en raison d’une validation insuffisante dans le serveur API REST d’Ollama.

Exploiter cette vulnérabilité implique l’envoi d’une requête HTTP spécialement conçue au serveur API d’Ollama, qui, dans les installations Docker, est publiquement exposé. Plus précisément, les attaquants pourraient manipuler le point d’accès de l’API /api/pull pour télécharger des modèles depuis des registres privés, compromettant ainsi l’environnement d’hébergement.

La gravité de ce problème est accrue dans les configurations Docker où le serveur fonctionne avec des privilèges root et écoute sur 0.0.0.0 par défaut, facilitant l’exploitation à distance. Malgré un correctif rapide publié par les mainteneurs d’Ollama, plus de 1 000 instances vulnérables persistent en ligne.

Pour protéger les applications d’IA utilisant Ollama, les utilisateurs doivent mettre à jour vers la version 0.1.34 ou ultérieure immédiatement. De plus, mettre en place des mesures d’authentification robustes, comme utiliser un reverse-proxy ou restreindre l’accès via des pare-feu, est essentiel pour atténuer les risques.

De plus, l’absence de support d’authentification native dans des outils comme Ollama souligne l’importance de renforcer les nouvelles technologies contre les vulnérabilités classiques. À l’avenir, la priorisation des mesures de sécurité sera primordiale pour prévenir l’accès non autorisé et les détournements potentiels de système.