Ce guide explique comment construire un système RAG (Retrieval-Augmented Generation) local pour traiter des PDF en utilisant DeepSeek-R1, LangChain, Ollama et Streamlit. Il met l'accent sur la confidentialité et l'efficacité en effectuant toutes les opérations localement, sans frais d'API récurrents. Le système utilise LangChain pour orchestrer le flux de travail, DeepSeek-R1 pour le raisonnement et la génération de réponses, Ollama pour déployer les modèles localement, ChromaDB pour stocker et récupérer les embeddings de documents, et Streamlit pour une interface utilisateur intuitive. Le guide fournit des instructions étape par étape pour installer les prérequis, configurer le projet, et exécuter l'application, permettant aux utilisateurs de poser des questions sur des documents PDF téléchargés et d'obtenir des réponses précises et rapides.
Tout est dans le titre - l'auteur développe un composant PHP pour interagir avec l'API Ollama
Cette fonction JavaScript permet de récupérer une ou des polices de caractères téléchargées localement par l'utilisateur, ce qui permet d'améliorer les performances pour les petites connexions
Tout est dans le titre
Tout est dans le titre
Il s'agit d'un tutoriel pour les débutants : l'auteur montre l'initialisation d'un dépôt git en local, et comment faire son premier commit
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Une table de compatibilité pour les polices de caractères installées en local, par défaut (via https://blog.stephaniewalter.fr/semaine-en-pixel-16-septembre-2016/ )