Transformez votre PC en un assistant conversationnel puissant avec LLama - l'alternative à chat-gpt en open source !
Récemment, des informations concernant le modèle linguistique de Facebook appelé LLaMa ont été divulguées sur la plateforme controversée 4chan, ce qui a causé des préoccupations pour l'entreprise de Mark Zuckerberg. LLaMa est une alternative de Facebook conçue pour concurrencer Chat-GPT et peut être exécuté sur un matériel informatique personnel. Suite à cette annonce de Facebook et à la fuite du code source de LLaMa, un codeur indépendant a développé la première version open source, maintenant disponible sur GitHub. Cela signifie que tout le monde peut désormais exécuter un assistant conversationnel presque identique à Chat-GPT et le personnaliser selon ses besoins. Les entreprises et les startups qui ont émergé ces derniers mois peuvent utiliser LLaMa pour créer un bot capable de jouer le rôle de service client sans frais. Il est également clair que LLaMa peut fonctionner sur un CPU, ce qui le rend accessible à tout le monde. Voici un petit tableau des performances requises pour chaque modèle de langage:
En résumé, ce graphique montre que tout le monde a la possibilité d'installer un assistant personnel similaire à Chat-GPT sur son ordinateur. Si vous êtes intéressé, vous pouvez suivre les instructions d'installation pour commencer à utiliser LLama.
Installation de LLama
LLama a été réécrit en C++, et nécessite un minimum de connaissances techniques pour son installation, notamment la maîtrise de Git et de la compilation avec Make. Il est également important que votre ordinateur réponde à certaines exigences minimales de performances pour pouvoir faire fonctionner le logiciel. Cette implémentation du logiciel est écrite en langage C/C++, sans aucune dépendance externe. Elle a été optimisée pour fonctionner efficacement sur les processeurs Apple Silicon en utilisant l'architecture ARM NEON et le framework Accelerate. Elle prend en charge le support AVX2 pour les architectures x86 et est capable de travailler avec des précisions mixtes F16/F32, ainsi que de prendre en charge la quantification sur 4 bits. Le logiciel est conçu pour s'exécuter directement sur le CPU de votre ordinateur. Il n'est pas obligatoire que votre ordinateur réponde à tous les critères mentionnés précédemment pour faire fonctionner LLama. En effet, un ordinateur avec un processeur de 2,6 GHz et 8 Go de RAM peut suffire à le faire fonctionner.
L'installation de LLama est facile à réaliser, il suffit de se rendre sur la page GitHub du projet.
Une fois installé, vous pourrez utiliser LLama comme dans la vidéo de démonstration. Si vous êtes compétent en programmation, vous pourrez personnaliser le logiciel et l'intégrer dans l'un de vos projets.
Commentaires
Enregistrer un commentaire