La llegada de DeepSeek R1, desarrollado por un equipo chino, ha sacudido la industria de la inteligencia artificial. Este modelo no solo ha superado a ChatGPT en popularidad, sino que también ha desatado una ola de reacciones en el mercado tecnológico estadounidense. Si bien puedes acceder a DeepSeek R1 de forma gratuita en su sitio web, las preocupaciones sobre la privacidad de los datos almacenados en China han llevado a muchos a buscar alternativas para ejecutarlo localmente.
Para aquellos que deseen usar DeepSeek R1 en su PC o Mac, la buena noticia es que es posible hacerlo con herramientas como LM Studio y Ollama. A continuación, te presentamos una guía paso a paso para que puedas comenzar.
Requisitos para ejecutar DeepSeek R1 localmente
Antes de lanzarte a la aventura, asegúrate de que tu computadora cumpla con los requisitos necesarios. Para ejecutar DeepSeek R1, es esencial contar con al menos 8 GB de RAM. Con esta memoria, podrás manejar el modelo pequeño de 1.5B de manera eficiente, generando alrededor de 13 tokens por segundo. Si te atreves con el modelo de 7B, ten en cuenta que podría consumir unos 4 GB, lo que podría hacer que tu sistema se vuelva un poco lento.
Si tu equipo tiene más memoria, podrías experimentar con modelos más grandes como el de 14B, 32B o incluso 70B, aunque necesitarás un CPU y GPU más rápidos. Actualmente, muchos programas no aprovechan el NPU (Unidad de Procesamiento Neural) para ejecutar modelos de IA localmente, por lo que se basan principalmente en el CPU, y en algunos casos, en GPUs de alta gama.
Ejecución de DeepSeek R1 en PC usando LM Studio
Una de las formas más sencillas de ejecutar DeepSeek R1 en sistemas PC, Mac y Linux es mediante LM Studio. Esta aplicación tiene una interfaz amigable que permite explorar y descargar modelos de IA compatibles con unos pocos clics. Además, el uso de LM Studio es completamente gratuito. Te dejo un tutorial muy completo y sencillo de nuestro amigo Xavier para que lo pruebes ahora mismo si quieres:
Ejecutar DeepSeek R1 localmente usando Ollama
Otra opción para los usuarios que prefieren una interfaz más personalizada es utilizar Ollama. Esta herramienta permite instalar DeepSeek R1 y disfrutar de características adicionales que mejoran la experiencia de usuario.
Ejecutar DeepSeek R1 localmente en Android y iPhone
Los usuarios de dispositivos móviles no se quedan atrás. Para ejecutar DeepSeek R1 en Android e iPhone, se recomienda tener al menos 6 GB de RAM. En el caso de Android, aplicaciones como PocketPal han demostrado ser las más efectivas para ejecutar modelos de IA localmente, y lo mejor es que son gratuitas. Además, PocketPal también está disponible para iOS, sin costo alguno, a diferencia de otras aplicaciones.
Así que, si deseas tener a DeepSeek R1 funcionando en tu dispositivo móvil, simplemente descarga PocketPal y empieza a disfrutar de sus funcionalidades. Aunque durante las pruebas, algunos modelos de 1.5B y 7B pueden presentar problemas de precisión histórica, son útiles para escritura creativa y razonamiento matemático.
Si cuentas con hardware potente, te recomendamos probar el modelo de 32B de DeepSeek R1, que es mucho más eficiente en tareas de codificación y ofrece respuestas más fundamentadas.