ChatGPT mediante LLaMa v2 para ejecutarse en modo local y privado.
Uso de CPU, en vez de GPU.
Uso de modelo de entrenamiento GGUF
.gitignore | ||
Dockerfile | ||
genera_imagen.sh | ||
ia.sh | ||
llama_cpu_server.py | ||
README.md |
LLaMa v2 - Tu propio ChatGPT
Requisitos:
- Docker
- Cuenta en Hugging Face
- Descargar el fichero
llama-2-7b-chat.Q2_K.gguf
Ruta descarga del fichero GGUF:
https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGUF/tree/main
Instrucciones detalladas
Puedes leer artículo completo en: