Mi experiencia corriendo deepseek en local .
A raíz de la noticia del nuevo modelo de IA deepseek en la red se han multiplicado los post y los tutoriales para empezar a trabajar con ollama desde un entorno local , por lo que el motivo de este post es documentar que tan cierto es esto digamos para un equipo promedio el cual poseemos un dev promedio (Considero ser un dev promedio). Primero daré el contexto con el cual estoy ejecutando esta prueba Tutorial base para el ejercicio https://platzi.com/blog/deepseek-r1-instalar-local/ A claro a día de hoy eh visto facil 20 , pero este se me hizo mas rápido y con menos pasos que es lo que busco , ninguna promoción hacia platzi . Recursos de mi pc Hardware Y por gusto personal la prueba la realizaremos sobre una versión de ubuntu en windows (WSL) Ahora si iniciemos con la parte divertida . Primero se tiene que instalar ollama . Ollama basicamente es una herramienta para ejecutar modelos de forma local , el equivalente a lo que es docker con las imagenes . ...