Para poder instalar la IA, se ocupa el modelo DeepSeek-R1, que es de código abierto y se puede modificar; además es gratis y puede ejecutarse en cualquier la computadora, sin mandar datos a servidores externos. De tal manera que brinda privacidad a los usuarios.
La DeepSeek-R1 puede ser la ideal debido a que no depende tanto de datos, ya que trabaja con el razonamiento como resolución de problemas matemáticos, de programación o procesos lógicos. La IA se “entrena” resolviendo problemas por prueba y error.
Si se corre localmente, se puede usar versiones versiones “distilled” de entre 1.5B y 70B parámetros que funcionan incluso en GPU comunes. Esto evita cuotas mensuales altas o costos por token.
Requisitos previos para instalar la IA
De acuerdo a Javier Guignard, docente en Platzi, compartió su procedimiento de instalación por Ollama , una herramienta para gestionar y correr modelos de lenguaje localmente. Estos son algunos de los requisitos necesarios para hacerlo.
- Conocimientos básicos de la terminal o línea de comandos.
- Tener un sistema Linux/macOS (o en Windows con WSL2).
- Docker instalado si planeado usar la interfaz web.
- Ollama para descargar y correr el modelo localmente (igualmente en este blog te ayudo a instalarlo).
También se puede necesitar Python 3.8 o superior, para interactuar con Ollama y DeepSeek, además de un Git para clonar repositorios si es necesario.
Además, los modelos grandes de IA requieren mucha memoria, así que asegúrate de tener suficiente RAM disponible.
Cómo instalar y ejecutar DeepSeek de manera local con Ollama
Si no tienes Ollama instalado, sigue estos pasos:
Descarga el instalador desde Ollama Releases y sigue las instrucciones.
En Linux/Mac:

En Windows:
Una vez instalado, inicia Ollama

Con Ollama, puedes descargar y ejecutar directamente DeepSeek si es compatible. Ejecuta el siguiente comando:

Después, podrás ejecutar localmente.
Al hacerlo, iniciará una sesión interactiva donde puedas interactuar con el modelo. Prueba el modelo desde la terminal con ollama run deepseek.
Para integrar DeepSeek en una aplicación local, se puede usar la API de Ollama.
Ollama expone una API HTTP en http://localhost:11434 .
Este es un ejemplo en Python:

Configuraciones adicionales:
Si tienes una GPU compatible, puedes checar de que Ollama esté configurando para usarla.