Aller au contenu

Ollama

Points clés

Ollama permet d'utiliser localement plusieurs grands modèles de langage (LLM) :

ollama run llama3.2

Illustration de l'utilisation de Ollama

curl http://localhost:11434/api/generate -d '{
  "model": "llama:3.2",
  "prompt": "Donne moi une définition courte d'un LLM"
}'

Quelques modèles

Avec un GPU disposant de 6Go de RAM (RTX 3060), les modèles suivants fonctionnent de manière fluide :

Ressources

Officielles :

Personnelles :