Utiliser Ollama LLM : créer une IA locale débutants
Problème de lecture
Cette vidéo ne semble pas disponible
00:00
00:00
Sous-titres non disponibles

TUTO Utiliser Ollama LLM : créer une IA locale débutants

Jean Philippe Parein
29,00€
klarna-condensed
Acheter maintenant, payer plus tard. En savoir plus

Téléchargement & visionnage illimité

Satisfait ou remboursé

Paiement 100% sécurisé

Découvrez comment utiliser Ollama pour exploiter la puissance des LLM en local, simplement, concrètement, et sans dépendre en permanence d’un service cloud.

Aujourd’hui, beaucoup de solutions d’intelligence artificielle reposent sur des abonnements, des limitations d’usage ou l’envoi de données vers des services en ligne. Pour de nombreux utilisateurs, cela devient vite coûteux, contraignant ou peu adapté à certains besoins. Avec Ollama, vous pouvez au contraire installer et utiliser des modèles d’IA directement sur votre propre machine, dans un environnement local, plus libre et plus maîtrisé.

Découvrez comment installer une IA locale sur votre machine grâceà ce tuto Ollama

Cette formation a été pensée pour les débutants qui veulent comprendre ce qu’est un LLM, découvrir l’IA locale et apprendre à utiliser Ollama de manière progressive, sans complexité inutile.

Dans cette formation, vous allez apprendre à :

  • installer Ollama correctement,
  • télécharger et lancer vos premiers modèles,
  • utiliser le mode CLI interactif,
  • mieux formuler vos prompts,
  • comprendre le rôle du message système, du message utilisateur et du contexte,
  • ajuster certains paramètres pour influencer le comportement du modèle
  • créer un Modelfile simple,
  • personnaliser le comportement d’un modèle,
  • découvrir Msty, Open WebUI, VS Code et AnythingLLM
  • explorer les premiers usages du RAG.

L’objectif de cette formation est de vous rendre rapidement autonome, avec une approche pratique et concrète.
Vous ne vous contenterez pas de découvrir Ollama : vous apprendrez à réellement l’utiliser, à mieux guider les réponses d’un modèle et à comprendre comment aller plus loin avec des outils complémentaires.

À la fin du cours, vous serez capable d’utiliser Ollama de manière autonome, de mieux exploiter un LLM local et de mettre en place vos premiers usages concrets autour de l’IA locale.

Qu’allez-vous apprendre dans ce cours ?

Plan de cours
Chapitre 1
Introduction
Chapitre 2
Installer Ollama et lancer sa première IA
Chapitre 3
Maîtriser les commandes du mode CLI interactif
Chapitre 4
Bien utiliser un LLM au quotidien
Chapitre 5
Personnaliser le comportement d’un modèle
Chapitre 6
Utiliser Ollama avec d’autres outils

Table des matières

Chapitre 1 : Introduction
05m33
 
Leçon 1Introduction à l’IA générative et aux LLM
Chapitre 2 : Installer Ollama et lancer sa première IA
33m37
 
Leçon 1Télécharger et installer Ollama
Leçon 2Télécharger son premier modèle
Leçon 3Lancer et discuter avec un modèle en ligne de commande (CLI)
Leçon 4Utiliser l’interface graphique
Chapitre 3 : Maîtriser les commandes du mode CLI interactif
38m18
 
Leçon 1Découvrir l’interface interactive et les commandes de base
Leçon 2Modifier les options de session avec set
Leçon 3Ajuster le comportement du modèle avec set parameter
Leçon 4Afficher les informations du modèle avec show
Leçon 5Enregistrer et restaurer une session avec save et load
Chapitre 4 : Bien utiliser un LLM au quotidien
21m22
 
Leçon 1Les bonnes pratiques pour obtenir de meilleurs résultats
Leçon 2Rédiger un bon prompt simplement
Leçon 3Rôle du message système, du message utilisateur et du contexte
Leçon 4Itérer sur une demande pour améliorer la réponse
Leçon 5Limites, hallucinations et vérification des réponses
Chapitre 5 : Personnaliser le comportement d’un modèle
21m33
 
Leçon 1Créer un Modelfile simple
Leçon 2Guider le modèle avec MESSAGE
Leçon 3Aller plus loin avec TEMPLATE
Chapitre 6 : Utiliser Ollama avec d’autres outils
42m28
 
Leçon 1Utiliser Ollama avec le client IA Msty
Leçon 2Utiliser Ollama avec Open WebUI
Leçon 3Utiliser Ollama dans Visual Studio Code avec l’extension Continue
Leçon 4Créer un assistant documentaire avec AnythingLLM (RAG)

Aperçus

Vos questions sur le cours

Pourrai-je utiliser Ollama et un modèle de LLM sur mon ordinateur sans connexion internet permanente ?

Oui, il est possible d'utiliser Ollama et un modèle de LLM localement sur votre machine, sans nécessité de connexion internet permanente après l'installation initiale. Cependant, une connexion est requise pour télécharger le logiciel Ollama et les modèles souhaités.

Quels types d’usages concrets sont présentés dans ce tutoriel avec Ollama ?

Le tutoriel présente l’installation d’Ollama, le lancement de modèles en ligne de commande ou avec interface graphique, la formulation de prompts, la personnalisation des comportements des modèles, ainsi que l’intégration avec d’autres outils comme Msty, Open WebUI, Visual Studio Code, et AnythingLLM pour des usages allant du chat textuel à l’assistant documentaire local.

Est-il possible de personnaliser le comportement d’un modèle d’IA local avec ce cours ?

Oui, le tutoriel explique comment ajuster les paramètres du modèle dans Ollama, créer un fichier de configuration (Modelfile) pour fixer des réglages par défaut ou structurer les réponses, et même concevoir un assistant documentaire simple pour des besoins spécifiques.

Pourrai-je utiliser Ollama avec d’autres outils ou applications selon le contenu du tutoriel ?

Le cours détaille comment intégrer Ollama à différents environnements tels qu’Open WebUI, Msty, Visual Studio Code (via l’extension Continue) et AnythingLLM, permettant d’explorer des usages variés comme la génération de code, la gestion documentaire locale ou la comparaison de modèles sur une même machine.

Ai-je besoin de compétences en programmation pour suivre ce tutoriel ?

Aucune compétence avancée en programmation n'est requise selon le contenu du tutoriel. L’approche est progressive et vise à rendre accessible l’utilisation d’Ollama même à un public débutant avec l’intelligence artificielle locale, tout en permettant d’aller plus loin pour ceux qui souhaitent explorer les fonctionnalités avancées.

Quels sont les freins techniques bloquants pour installer et utiliser Ollama en local ?

Il est nécessaire de disposer d’un ordinateur compatible, avec des ressources matérielles suffisantes, notamment en mémoire et en capacité de stockage pour les modèles. Certaines fonctionnalités peuvent dépendre du système d’exploitation (Windows, Mac ou Linux) et de la présence ou non d’une carte graphique adaptée, mais le fonctionnement sur CPU est également expliqué.

Que se passe-t-il si mon ordinateur ne possède pas de carte graphique compatible ?

Ollama peut fonctionner même sans carte graphique adaptée, en utilisant le processeur (CPU) de votre machine. Les performances peuvent être moindres, avec un temps de réponse plus long, mais l’utilisation reste possible pour l’exploration des fonctions du modèle.

Dois-je m’attendre à une confidentialité totale de mes données avec Ollama en local ?

Tant que l’utilisation se fait totalement en local, vos données restent sur votre machine et ne transitent pas par internet. Toutefois, il convient de vérifier que le mode choisi est bien local et de se conformer aux recommandations sur la sécurité du poste utilisé.

Puis-je bénéficier d’une garantie satisfait ou remboursé sur ce tutoriel ?

Oui, la plateforme tuto.com propose une politique satisfait ou remboursé sur les achats de tutoriels. En cas d’insatisfaction après l’achat, vous pouvez consulter les conditions sur tuto.com pour effectuer une réclamation.

Quels aspects plus avancés ou usages spécifiques ne sont pas abordés dans ce tutoriel ?

Ce cours ne couvre pas de mises en production industrielles, l’automatisation de workflows complexes, ni l’intégration à des systèmes externes spécialisés. Les usages sont centrés sur l’installation, l’utilisation en local et la personnalisation de modèles à des fins pédagogiques ou personnelles, sans aller jusqu’à la gestion de projets d’IA professionnels ou de sécurité avancée.

Payer plus tard

Prix d'achat : 29,00 €
Pour payer plus tard, sélectionnez Klarna comme moyen de paiement lors du règlement.

Ajoutez des articles à votre panier

Sélectionnez Klarna lors du règlement

Recevez une autorisation

Payez dans 30 jours

Klarna : conditions d'utilisation du paiement différé.

Attendez ! 🤗

Accédez à plus de 1400 tutos gratuits

Notre politique de protection des données