L'article présente une synthèse de cinq publications clés qui ont marqué le domaine des grands modèles de langage (LLM). Il commence par expliquer comment GPT-3 a révolutionné le traitement du langage naturel en permettant à un seul modèle de réaliser diverses tâches grâce au "few-shot learning". Ensuite, il aborde les "scaling laws" qui démontrent l'importance de la taille des modèles pour leur performance. Le concept de "modèles de fondation" est introduit comme une évolution vers des modèles plus génériques capables de s'adapter à différents domaines. L'architecture des Transformers, basée sur des mécanismes d'attention, est également explorée pour son efficacité à grande échelle. Enfin, l'approche RAG (Retrieval-Augmented Generation) est présentée comme une méthode pour améliorer les LLM en intégrant des informations actualisées sans réentraînement coûteux. L'article souligne l'importance de ces avancées pour comprendre l'essor de l'IA générative et des LLM.
Discord a partagé les détails de l'évolution de son infrastructure de recherche, lui permettant d'indexer des trillions de messages et d'introduire des fonctionnalités comme la recherche multi-serveurs. Initialement, l'architecture reposait sur Elasticsearch avec une indexation paresseuse utilisant Redis, mais la croissance rapide a révélé des limites, notamment des pertes de messages et des surcharges des nœuds. Pour y remédier, Discord a migré vers Google Cloud PubSub pour une livraison garantie des messages et a optimisé l'indexation en masse avec un routeur intelligent. Ils ont également introduit des cellules Elasticsearch pour mieux répartir la charge et isoler les grands serveurs, tout en adoptant Kubernetes pour une orchestration plus efficace. Ces améliorations ont permis une indexation fiable, une meilleure gestion des grands serveurs, une scalabilité accrue et de nouvelles fonctionnalités comme la recherche multi-serveurs, améliorant ainsi l'expérience utilisateur.
L'article explore les distinctions cruciales entre les données brutes, les résultats et les insights dans le domaine de l'expérience utilisateur. Il souligne l'importance de transformer les observations en informations exploitables pour influencer les décisions stratégiques. L'article aborde également la question de la signification statistique dans la recherche UX, un sujet souvent source de confusion. Enfin, il propose des conseils pratiques pour communiquer efficacement les résultats de la recherche UX aux parties prenantes.
Des astuces pour Google, mais aussi comment faire des recherches à partir d'images et des liens sur l'OSINT
Tout est dans le titre
Tout est dans le titre
En résumé :
- N'en mettez pas plein la vue avec vos titres d'expert UX ou autre
- N'intimidez pas vos utilisateurs : ce n'est pas un entretien d'embauche ni une présentation devant votre patron
- Faites au mieux pour observer vos utilisateurs dans leur "habitat naturel"
- Recueillez le plus de contextes et ne restez pas en surface
- Tout le monde ment (souvent de manière non intentionnelle). Vérifiez systématiquement ce qui est dit
Tout est dans le titre
Un guide sur la recherche / remplacement avec vim (et quelques plugins pour améliorer cette fonctionnalité)
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Un article très intéressant sur la collecte de données, et leur organisation en vue de la recherche.
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Tout est dans le titre
Un "concurrent" de societe.com
Tout est dans le titre