Ce dépôt Github liste des intégrations de LLM dans PHP. Chaque intégration doit être open source (licence), être stable ou en développement actif et être installable via composer.
L'auteur partage son expérience approfondie de l'utilisation des Large Language Models (LLMs) pour le codage. Il souligne que l'utilisation des LLMs pour le codage est complexe et nécessite de fixer des attentes raisonnables. Il insiste sur l'importance de comprendre les dates de coupure d'entraînement des modèles et de gérer efficacement le contexte. Il partage des conseils pratiques tels que demander des options aux LLMs, fournir des instructions détaillées et itérer sur le code généré. Il discute également des avantages d'utiliser des outils capables d'exécuter et de tester le code, et introduit le concept de "vibe-coding" comme moyen d'apprentissage et d'expérimentation avec les LLMs. Il conclut que les LLMs accélèrent considérablement le développement et amplifient l'expertise existante, facilitant ainsi la mise en œuvre des idées et l'apprentissage de nouvelles choses.
L'article explore comment rendre les sorties des modèles de langage (LLMs) utilisables par des algorithmes de traitement pour en tirer parti de manière automatique et industrielle. Il aborde les limites du prompt engineering classique et introduit la notion de grammaires formelles pour forcer les LLMs à générer des sorties structurées, comme du JSON, afin de garantir la cohérence et la validité des données extraites. L'article illustre ces concepts à travers un cas d'usage concret : l'analyse automatisée de CVs pour extraire des compétences spécifiques, en utilisant des outils comme Pydantic pour définir des schémas de données stricts
.
Le jour 3 a commencé par une keynote sur l'informatique quantique par Fanny Bouton d'OVHcloud, qui a expliqué que la suprématie quantique n'est pas attendue avant 15 à 30 ans. Elle a souligné l'importance de la formation et l'existence de six types d'ordinateurs quantiques en France. Ensuite, Thibaut Giraud a discuté des capacités des LLM (Large Language Models), notamment leur compréhension limitée mais non nulle. Laetitia Avrot a présenté des fonctionnalités méconnues de PostgreSQL à travers une mise en scène claire et amusante. L'auteur a manqué une session sur les tests de charge mais a participé à "Speechless", un exercice d'improvisation. L'après-midi a été écourtée par un départ anticipé, mais il a eu des discussions enrichissantes et a remercié l'équipe d'organisation et les sponsors.
L'article présente WebLLM, une technologie développée par l'équipe MLC-AI qui permet d'exécuter des modèles de langage de grande taille (LLMs) directement dans le navigateur, sans infrastructure serveur. En utilisant WebAssembly (WASM) et WebGPU, WebLLM télécharge et stocke localement les modèles, permettant ainsi une utilisation hors ligne après le chargement initial. Cette approche offre des avantages en termes de confidentialité et de sécurité, car les données ne sont pas envoyées à des serveurs distants.
Tout est dans le titre
Tout est dans le titre
Les résumés des conférences de BDX I/O :
- Keynote d'ouverture : LLMs, entre fantasme et réalité - le point de vue d'une dév passée de l'autre côté
- Découvrons ensemble la relève de l'observabilité avec les logs et traces : Quickwit
- HTMX, où le retour de l'AJAX dans le développement Web
- IA-404 : Explication not found
- Rex scale-up : les impacts du passage à l'échelle
- Really Inaccessible - Stanley Servical & Louis Fredice Njako Molom
- Causalité et statistiques : un amour pas si impossible que ça
- Shaders : Comment créer des effets hallucinants sur son site web
- L'envers du décor d'un passage douloureux à Vue 3
- Secrets faciles dans Kubernetes : parce que je le Vault bien
- Les histoires d’A. finissent pas si mal : Offboarding ou la fin de la relation entre un client et une marque
- L'IA Éco-Responsable : Utopie Marketing ou Réalité ?
- Le coût du Mob Programming
- Simplifiez la conteneurisation de vos idées !
Tout est dans le titre
Tout est dans le titre
Amusant
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
L'auteur explique l'intérêt de RAG (Retriever-Augmented Generation) par rapport à l'utilisation d'un LLM (Large Language Model) pour créer un chatbot basé sur la documentation technique de son site.
Tout est dans le titre
Excellente introduction
Tout est dans le titre
Tout est dans le titre - l'auteur développe un composant PHP pour interagir avec l'API Ollama