ChatGPT mediante LLaMa v2 para ejecutarse en modo local y privado.
Uso de CPU, en vez de GPU.
Uso de modelo de entrenamiento GGUF
.gitignore | ||
Dockerfile | ||
genera_imagen.sh | ||
ia.sh | ||
llama_cpu_server.py | ||
README.md |
.gitignore | ||
Dockerfile | ||
genera_imagen.sh | ||
ia.sh | ||
llama_cpu_server.py | ||
README.md |