Aquí en nuestro artículo le mostramos cómo instalar LLaMA 3 localmente en Windows 11.
Recientemente, Meta presentó Llama 3, un modelo de lenguaje gigante. Tiene muchas aplicaciones, como responder a tus preguntas y ayudarte con los trabajos y proyectos escolares, entre otras. Puedes acceder a él en cualquier momento, ya sea en línea o fuera de línea, instalando Llama 3 localmente en tu PC Windows 11. Aquí te mostramos cómo puedes instalar Llama 3 localmente en una PC Windows 11/10.
Métodos para instalar Llama 3 en un escritorio Windows 11 Instalar Llama 3 con Python en un equipo Windows 11 o 10 requiere conocimientos técnicos. Sin embargo, existen varias soluciones alternativas que le permitirán instalar Llama 3 localmente en un equipo Windows 11. Veamos, permítame ilustrar estos métodos.
Para instalar y ejecutar Llama 3, debes ejecutar un par de comandos a través del Símbolo del sistema en una PC con Windows 11. Dicho esto, estarás restringido a la versión de línea de comandos. El uso de su interfaz web requiere más pasos. Te guiaré a través de estas dos formas.
Si estás en Windows 11, primero debes instalar Ollama, antes de implementar Llama 3. Estos son los pasos: Ve al sitio web principal de Ollama.
Haga clic en el botón Descargar y luego seleccione Windows en el menú de selección desplegable.
Verá Descargar para Windows en su computadora como un archivo ejecutable. La forma más fácil de instalar Ollama es ejecutar el archivo ejecutable descargado.
Reinicia tu computadora luego de instalar Ollama. Debería estar funcionando en modo silencioso. Lo verás en la bandeja del sistema. Desde el menú de la página de inicio de Ollama, haz clic en "Modelos". Todos los tipos aparecerán ante ti.
Llama 3.1 tiene las siguientes tres opciones: 8B Parte 70B Sección 405B Debido a que el último es el parámetro más grande, no puede ejecutarlo en una PC de gama baja. Hay dos parámetros disponibles en Llama 3.2: 1B 3B Primero, debe elegir una versión adecuada de Llama que se ajuste a sus necesidades. Por ejemplo, para instalar la versión de Llama 3.2, haga clic en Llama 3.2. Al hacer clic, elija el parámetro que desea instalar en el menú desplegable, abra el Símbolo del sistema y copie y pegue el comando al lado.
Para su conveniencia, se encuentran las instrucciones sobre cómo hacer ambas cosas para el modelo Llama 3.2. El siguiente comando instala el modelo Llama 3.2 3B: llama 3.2:3b olivama run El comando para ejecutar la instalación del modelo en Llama 3.2 1B es el siguiente: llama 3.2:1b gallina Primero, abra el Símbolo del sistema. Luego, según su requisito, escriba cualquiera de los comandos anteriores y presione Enter. Tomará bastante tiempo descargar todos los datos esenciales. Depende de la velocidad de su conexión a Internet. En el Símbolo del sistema, muestra un mensaje de éxito si se realiza correctamente.
Simplemente comience a escribir su mensaje y el modelo Llama 3.2 se activará de inmediato. Las instrucciones para instalar el modelo Llama 3.1 se pueden encontrar en el sitio web de Ollama.
Para iniciar Llama 3.1 o 3.2 por segunda vez desde su PC, ejecute el mismo comando en el Símbolo del sistema.
Una desventaja de instalar Llama 3 a través de CMD es que no guarda el historial de chat. Recordará las conversaciones si se instala en su máquina local y tendrá una interfaz de usuario más agradable. Puede ver cómo hacerlo en el siguiente enfoque.
Ejecute la interfaz web de Llama 3 en Windows 11
En comparación con el uso de Llama 3 en la ventana del símbolo del sistema, la experiencia de usuario es mucho más agradable cuando se utiliza en un navegador web y se conserva el historial de chat. Aquí demostraré cómo instalar Llama 3 en su navegador.
Para ejecutar Llama 3 en el navegador, se debe instalar Docker y Llama 3 a través de Ollama. Si no está instalado, como se explicó anteriormente, instale Llama 3 mediante Ollama. Docker se puede descargar e instalar directamente desde el sitio web.
Una vez instalado, inicie Docker y cree una cuenta. Docker no comenzará a funcionar hasta que haya registrado una cuenta. Una vez que haya creado una cuenta, inicie sesión con la aplicación Docker. Establezca Docker como un ícono en la bandeja del sistema. Nota: mantenga las aplicaciones Docker y Ollama abiertas y ejecutándose en segundo plano en todo momento. De lo contrario, Llama 3 no funcionará en su navegador.
Ahora abra el símbolo del sistema y pegue el siguiente comando en el símbolo del sistema:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data -name ghcr.io/open-webui/open-webui:main --restart siempre
Esto llevará algún tiempo, ya que el comando anterior descargará todos los recursos necesarios, así que tenga paciencia. Una vez que se complete el comando, abra Docker y seleccione la pestaña Contenedores a la izquierda. Tenga en cuenta que, de manera predeterminada, se creará un contenedor con el número de puerto 3000:8080.
Presione el número de puerto 3000:8080. Se abrirá una nueva pestaña en su navegador web predeterminado. Para comenzar a trabajar con Llama 3 dentro de su navegador, debe registrarse y luego iniciar sesión. En caso de que vea localhost:3000 en la barra de direcciones, significa que Llama 3 se está ejecutando en su computadora localmente. No necesita una conexión a Internet activa para funcionar.
En el menú desplegable, seleccione el modelo de chat de Llama que desea habilitar. Se pueden instalar modelos adicionales de Llama 3 a través de Ollama siguiendo las instrucciones que se le presentarán. El modelo estará disponible automáticamente en su navegador.
Puedes ver todo el historial de conversaciones en el lado izquierdo de la pantalla. Cuando hayas terminado, simplemente cierra la ventana del navegador. Para cerrar Docker, abre la aplicación y haz clic en el botón Detener. Ahora puedes cerrar Docker.
Después de iniciar Ollama y Docker, deje que se complete su ejecución en unos minutos. Ahora, abra su navegador web y haga clic en el reenvío de puertos en el contenedor Docker para dirigirse al servidor local. Puede usar Llama 3 a partir de ahora. Inicie sesión en su cuenta para activar Llama 3.
Realmente esperamos que este artículo haya sido útil para tu pregunta y que puedas configurar LLaMA 3 en un Windows 11 local sin muchos problemas.
Descubra cómo utilizar eficazmente Gemini Code Assist en Windows 11 para mejorar su experiencia de codificación
Aprenda cómo reconstruir el archivo de datos de configuración de arranque (BCD) en Windows 11 con nuestro paso a paso.
Corrija los errores persistentes de la unidad en Windows 11 despuésde reiniciar. Descubra soluciones efectivas para solucionar problemas yreparar su sistema para obtener un rendimiento óptimo.
Te guiaré sobre cómo configurar WinRM a través de GPO en Windows
Te enseñaré cómo solucionar el problema de las reacciones de emoji que no funcionan en Teams
Si te preguntas cómo solucionar el problema de no tener Internet después de reiniciar el router, aquí tienes una guía con la mejor respuesta.
Aquí en este post te mostramos paso a paso cómo actualizar el firmware SSD en Windows 11.
Para aprender cómo desinstalar Windows Security de Windows Server, aquí hay una guía paso a paso.
Hoy en nuestra guía le mostramos cómo solucionar el bloqueo de Deployment Workbench al abrir la pestaña Propiedades de WinPE.
Si no sabes cómo solucionar el error DataFormat.Error: We could not convert to a number, aquí tienes una guía que te ayudará con ello.
Te guiaré en este documental Cómo habilitar la carga USB-C en una computadora portátil en Windows 11