Mi experiencia corriendo deepseek en local .
A raíz de la noticia del nuevo modelo de IA deepseek en la red se han multiplicado los post y los tutoriales para empezar a trabajar con ollama desde un entorno local , por lo que el motivo de este post es documentar que tan cierto es esto digamos para un equipo promedio el cual poseemos un dev promedio (Considero ser un dev promedio).
Primero daré el contexto con el cual estoy ejecutando esta prueba
Tutorial base para el ejercicio
- https://platzi.com/blog/deepseek-r1-instalar-local/
A claro a día de hoy eh visto facil 20 , pero este se me hizo mas rápido y con menos pasos que es lo que busco , ninguna promoción hacia platzi .
Recursos de mi pc
Hardware
Y por gusto personal la prueba la realizaremos sobre una versión de ubuntu en windows (WSL)Ahora si iniciemos con la parte divertida .
Primero se tiene que instalar ollama . Ollama basicamente es una herramienta para ejecutar modelos de forma local , el equivalente a lo que es docker con las imagenes .
Al final al terminar la descarga pide confirmar la descarga y al parecer realiza la instalacion de un usuario y grupos en el sistema. Ya solo queda corroborar con ollama -v y veremeos la version instalada
.Lo siguiente es instalar el modelo , en primera instancia tomaremos el modelo mas pequeño es decir instalaremos, DeepSeek-R1-Distill-Qwen-1.5B
Comando
curl -fsSL https://ollama.com/install.sh | sh
Al final al terminar la descarga pide confirmar la descarga y al parecer realiza la instalacion de un usuario y grupos en el sistema. Ya solo queda corroborar con ollama -v y veremeos la version instalada
Comando
ollama -v
.Lo siguiente es instalar el modelo , en primera instancia tomaremos el modelo mas pequeño es decir instalaremos, DeepSeek-R1-Distill-Qwen-1.5B
Esto lo hacemos con
Comando
ollama run deepseek-r1:1.5b
La decisión del modelo , como muchos estoy seguro ya saben es por el uso del recurso para ser honesto en este punto a lo mejor existan preguntas como ¿Por que ocupan tanto recurso ?¿Que significa 1.5b? Asi que mientras esperaba la descarga pregunte a su buen amigo de deepseek , chatgpt algo de informacion y te la comparto espero la alcances a ver .
Igual leí un poco de la documentación oficial del modelo , la cual te comparto y de una te ahorro la busqueda por internet - https://huggingface.co/Qwen/Qwen2.5-Math-1.5B
Bueno continuando con la prueba comento un dato relevante que como bien dice el tutorial de arriba el modelo si pesa alrededor de 1.1GB
Comentarios
Publicar un comentario