Ollama – l’intelligence en local
Ollama est un outil conçu pour exécuter des modeles d’IA (large language models LLM) localement sur votre machine, prenant en charge des modèles tels que Llama 3, Mistral, Gemma et d’autres. Il est disponible pour macOS, Linux et Windows (en version préliminaire) et permet aux utilisateurs de personnaliser et de créer leurs propres modèles.
Page de téléchargement : https://ollama.com/download
Installation sous linux :
Dans le terminal, entrez la commande suivante :
> curl -fsSL https://ollama.com/install.sh | sh
Puis
> ollama run llama2
Cela lancera le modèle Llama 2 à l’aide de l’application Ollama. Assurez-vous que l’application Ollama est correctement installée et configurée sur votre machine avant d’exécuter cette commande. Si vous avez besoin de plus d’informations ou d’une configuration supplémentaire, vous pouvez consulter la documentation officielle d’Ollama.
La liste des modèles : https://ollama.com/library
Pour visualiser les les modèles installés :
> ollama list
NAME ID SIZE MODIFIED
gemma:2b b50d6c999e59 1.7 GB 2 months ago
llama2:latest 78e26419b446 3.8 GB 2 months ago
mistral:latest 61e88e884507 4.1 GB 2 months ago
Les principales commandes :
Available Commands:
serve Start ollama
create Create a model from a Modelfile
show Show information for a model
run Run a model
pull Pull a model from a registry
push Push a model to a registry
list List models
cp Copy a model
rm Remove a model
help Help about any command
Si vous rencontrez des problèmes ou avez besoin d’assistance, la communauté et les développeurs sont actifs sur leur Discord et sur GitHub (Ollama).