Lamini AI a récemment révolutionné les grands modèles de langage (LLM) avec l’introduction de la technique innovante Lamini Memory Tuning. Cette méthode améliore considérablement la précision factuelle et réduit les hallucinations dans les LLM, atteignant une précision de 95 % contre 50 % habituellement enregistrés et diminuant les hallucinations de 50 % à seulement 5 %.
Lamini Memory Tuning résout le paradoxe fondamental de l’IA en intégrant des faits précis dans les modèles ouverts comme Llama 3, permettant d’extraire uniquement les informations pertinentes pendant l’inférence. Ce haut degré de précision est essentiel dans des applications critiques, comme la conversion de questions en langage naturel en requêtes SQL.
Les méthodes traditionnelles comme le Prompting et le Retrieval-Augmented Generation (RAG) n’éliminent pas complètement les hallucinations. Lamini Memory Tuning, en revanche, combine techniques de récupération d’information et IA pour traiter les réponses presque correctes comme totalement incorrectes.
En utilisant une large combinaison d’experts de mémoire, cette méthode garantit une génération fluide et un rappel quasi parfait des faits critiques, réduisant ainsi les coûts d’inférence et étendant les applications des LLM. L’adoption de cette technologie par diverses industries promet des solutions AI précises et automatisées.
**Asif Razzaq**, PDG de Marktechpost Media Inc., souligne le potentiel de l’IA pour le bien social, avec une plateforme dédiée à la diffusion de nouvelles sur le machine learning et le deep learning, attirant plus de 2 millions de vues mensuelles.