ChatGPT mediante LLaMa v2 para ejecutarse en modo local y privado. Uso de CPU, en vez de GPU. Uso de modelo de entrenamiento GGUF
Find a file
2023-12-01 20:31:35 +01:00
.gitignore Subiendo ficheros 2023-12-01 20:25:51 +01:00
Dockerfile Subiendo ficheros 2023-12-01 20:25:51 +01:00
genera_imagen.sh Subiendo ficheros 2023-12-01 20:25:51 +01:00
ia.sh Subiendo ficheros 2023-12-01 20:25:51 +01:00
llama_cpu_server.py Subiendo ficheros 2023-12-01 20:25:51 +01:00
README.md Instrucciones y enlaces 2023-12-01 20:31:35 +01:00

LLaMa v2 - Tu propio ChatGPT

Requisitos:

  • Docker
  • Cuenta en Hugging Face
  • Descargar el fichero llama-2-7b-chat.Q2_K.gguf

Ruta descarga del fichero GGUF:

https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGUF/tree/main

Instrucciones detalladas

Puedes leer artículo completo en:

https://soloconlinux.org.es/llama-v2-tu-propio-chatgpt/