Ici, dans notre article, nous vous montrons comment installer LLaMA 3 localement sur Windows 11.
Plus récemment, Meta a présenté Llama 3, un modèle de langage géant. Il propose de nombreuses applications, comme répondre à vos questions et vous aider dans vos devoirs et projets, entre autres. Vous pouvez y accéder à tout moment, que ce soit en ligne ou hors ligne, en installant Llama 3 localement sur votre PC Windows 11. Voici comment installer Llama 3 localement sur un PC Windows 11/10.
L'installation de Llama 3 à l'aide de Python sur un ordinateur Windows 11 ou 10 nécessite une expertise technique. Cependant, il existe plusieurs solutions de contournement qui vous permettront d'installer Llama 3 localement sur un ordinateur Windows 11. Écoutez, laissez-moi illustrer ces approches.
Pour installer et exécuter Llama 3, vous devez exécuter quelques commandes via l'invite de commande sur un PC Windows 11. Cela dit, vous serez limité à la version en ligne de commande. L'utilisation de son interface utilisateur Web nécessite plus d'étapes. Je vais vous expliquer ces deux méthodes.
Si vous êtes sur Windows 11, vous devez d'abord installer Ollama, avant de déployer Llama 3. Voici les étapes : Accédez au site Web principal d'Ollama.
Cliquez sur le bouton Télécharger, puis sélectionnez Windows dans le menu déroulant de sélection.
Vous verrez Télécharger pour Windows sur votre ordinateur sous forme de fichier exécutable. Le moyen le plus simple d'installer Ollama est d'exécuter le fichier exécutable téléchargé.
Redémarrez votre ordinateur après l'installation d'Ollama. Il devrait fonctionner en mode silencieux. Vous le verrez dans votre barre d'état système. Dans le menu de la page d'accueil d'Ollama, cliquez sur « Modèles ». Tous les types apparaîtront devant vous.
Llama 3.1 propose les trois options suivantes : 8B Partie 70B Section 405B Étant donné que le dernier paramètre est le plus important, vous ne pouvez pas l'exécuter sur un PC bas de gamme. Il existe deux paramètres disponibles dans Llama 3.2 : 1B 3B Tout d'abord, vous devez choisir une version appropriée de Llama qui correspond à vos besoins. Par exemple, pour installer la version de Llama 3.2, cliquez sur Llama 3.2. Après avoir cliqué, choisissez le paramètre que vous souhaitez installer dans la liste déroulante, ouvrez l'invite de commande et copiez-collez la commande à côté.
For your convenience are the instructions on how to do both for the Llama 3.2 model. The following command installs the Llama 3.2 3B model: llama 3.2:3b olivama run The command for running the installation of the model in Llama 3.2 1B is as follows: llama 3.2:1b gallina First, open the Command Prompt. Then, as per your requirement, write any one of the above commands and hit Enter. It is going to take a good deal of time to download all the essential data. It depends on the speed of your Internet connection. In the Command Prompt, it displays a success message if it's done accordingly.
Just begin to type into your message, and the Llama 3.2 model will engage immediately. The instructions for installing the Llama 3.1 model can be found on the Ollama website.
To launch Llama 3.1 or 3.2 the second time around from your PC, execute the same command in Command Prompt.
One disadvantage of installing Llama 3 through CMD is that it does not save your chat history. It will remember conversations if installed on your local machine and will have a nicer UI. You can see how to do that in the approach below.
Run Llama 3's web interface on Windows 11
Compared to using Llama 3 in the command prompt window, it has a much nicer user experience when using it in a web browser and keeps the chat history. Here I will demonstrate how to install Llama 3 in your browser.
To run Llama 3 in the browser, one should install Docker and Llama 3 via Ollama. If not installed, as previously discussed, please install Llama 3 using Ollama. Docker can be downloaded and installed directly from the website.
Once installed, launch Docker and create an account. Docker won't start working until you've registered an account. Once you have created an account, log in using the Docker application. Set Docker as an icon in the system tray. Note: Please keep the Docker and Ollama apps open running at all times in the background. Otherwise, Llama 3 will not work in your browser.
Now open the Command Prompt and paste the following command into the prompt:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data -name ghcr.io/open-webui/open-webui:main --restart always
This will take some time as the above command will download all the necessary resources, so please be patient. Once the command is complete, open Docker and select the Containers tab on the left. Note by default, a container will be created with the port number 3000:8080.
Appuyez sur le numéro de port 3000:8080. Un nouvel onglet s'ouvre alors dans votre navigateur Web par défaut. Pour commencer à travailler avec Llama 3 dans votre navigateur, vous devez vous inscrire puis vous connecter. Si vous voyez localhost:3000 dans la barre d'adresse, cela signifie que Llama 3 est diffusé localement sur votre ordinateur. Cela ne nécessite pas de connexion Internet active pour fonctionner.
Dans la liste déroulante, sélectionnez le modèle de chat Llama que vous souhaitez activer. Des modèles Llama 3 supplémentaires peuvent être installés via Ollama en suivant les instructions qui s'afficheront. Le modèle sera alors automatiquement disponible dans votre navigateur.
Vous pouvez voir l'historique complet de vos conversations sur le côté gauche de votre écran. Fermez simplement la fenêtre de votre navigateur lorsque vous avez terminé. Pour arrêter Docker, ouvrez l'application et cliquez sur le bouton Arrêter. Vous pouvez maintenant fermer Docker.
Après avoir lancé Ollama et Docker, laissez-le terminer son exécution en quelques minutes. Maintenant, ouvrez votre navigateur Web et cliquez sur la redirection de port dans le conteneur Docker pour acheminer vers le serveur localhost. Vous pouvez utiliser Llama 3 à partir de maintenant. Connectez-vous à votre compte pour activer Llama 3.
Nous espérons vraiment que cet article a été utile pour votre question et que vous pourrez configurer LLaMA 3 sur un Windows 11 local sans trop de tracas.
Découvrez comment utiliser efficacement Gemini Code Assist dans Windows 11 pour améliorer votre expérience de codage
Apprenez à reconstruire le fichier de données de configuration de démarrage (BCD) dans Windows 11 avec notre procédure étape par étape.
Corrigez les erreurs de lecteur persistantes dans Windows 11 après le redémarrage. Découvrez des solutions efficaces pour dépanner et réparer votre système pour des performances optimales.
Je vais vous guider Comment configurer WinRM via GPO dans Windows
Je vais vous apprendre comment résoudre le problème des réactions emoji qui ne fonctionnent pas dans Teams
Si vous vous demandez comment résoudre le problème de ne pasavoir Internet après le redémarrage du router, voici un guide avec lameilleure réponse.
Ici, dans cet article, nous vous montrons étape par étape comment mettre à jour le firmware du SSD dans Windows 11.
Pour savoir comment désinstaller Windows Security de Windows Server, voici un guide étape par étape.
Aujourd'hui, dans notre guide, nous vous montrons comment réparer le crash de Deployment Workbench lors de l'ouverture de l'onglet Propriétés WinPE.
Si vous ne savez pas comment résoudre l'erreur DataFormat.Erreur :Nous n'avons pas pu convertir en nombre, voici un guide qui vous aidera.
Je vais vous guider dans ce documentaire Comment activer le chargement USB-C sur un ordinateur portable en Windows 11