Qwen3, la IA de Alibaba, humilla a Gemini, ChatGPT y Grok: así puedes usarla gratis desde tu PC

La megacorporación china Alibaba ha presentado de manera oficial Qwen3, su nuevo modelo de inteligencia artificial. Y las redes se están haciendo eco de la potencia de esta nueva versión, tanto que para muchos se considera la más potente creada hasta ahora. De hecho, en las pruebas realizadas, ha tenido la solvencia suficiente para superar sin despeinarse a DeepSeek-R1, Gemini-2.5 Pro e incluso a la mismísima Grok 3 de Elon Musk.
Las principales bazas que juega esta apuesta son sus capacidades de razonamiento lógico, la velocidad de respuesta o su habilidad para hablar casi cualquier idioma. En otros modelos, las respuestas pueden ser algo confusas o inconsistentes en estos aspectos, pero no en Qwen3. La realidad es que argumenta con claridad sus respuestas, y aquellos que lo han probado han quedado bastante sorprendidos. Mientras tanto, el gigante comercial asiático pretende seguir ahondando para ganarse el liderazgo mundial de las IA. Pero hay una realidad latente mucho mayor, y es que China ya no solo lidera el comercio mundial, sino también la carrera de las IA.
Qwen 3: así razona, programa y responde
Una de las demostraciones que más ha asombrado a aquellos que lo han probado es su capacidad para resolver distintos rompecabezas con total conciencia y naturalidad. De hecho, te explica paso a paso todo el proceso, y no falla en ninguna etapa. Esto supone un avance enorme en la habilidad de «pensar en voz alta» en que muchos modelos naufragan.
También podemos cambiar el estilo de respuesta según tus propios gustos. Puedes cambiarlo entre pensamiento profundo (razonamiento), o respuesta rápida. En las pruebas creativas, dio cinco respuestas razonadas de por qué la pizza es mejor que las ensaladas, en menos de tres segundos. Obviamente, con un tono mordaz y divertido, pero con lógica en todo el proceso.
Qwen@Alibaba_QwenIntroducing Qwen3!We release and open-weight Qwen3, our latest large language models, including 2 MoE models and 6 dense models, ranging from 0.6B to 235B. Our flagship model, Qwen3-235B-A22B, achieves competitive results in benchmark evaluations of coding, math, general https://t.co/JWZkJeHWhC
28 de abril, 2025 • 23:05
7.8K
581
Y no solo eso, sino que Qwen3 también ha demostrado una fina habilidad para programar con lenguajes reales. De hecho, redactó un script muy útil en Python con el objetivo de recopilar los titulares de varios periódicos y guardarlos en un formato de archivo predeterminado. Y todo ello sin error alguno en la sintaxis.
Capacidades planificadoras y multilingües
Qwen3 es lo más parecido a un traductor profesional que vamos a encontrar hasta el momento. Para que te hagas una idea, fue capaz en una sola sesión de explicar la Teoría de la Relatividad de Einstein en árabe, francés y chino. Sin despeinarse. Y no solo es capaz de adaptar el idioma, sino también el tono, de tal manera que un niño pueda entenderlo sin esforzarse.
En cuestiones de planificación, la IA fue capaz de crear un itinerario muy optimizado para visitar Tokio a lo largo de tres días y con un presupuesto de 500 euros. En el proceso, calculó los gastos de transporte, alojamiento, entradas a espectáculos y comidas.
Como ves, Alibaba ha puesto en serios apuros a los competidores que dominan el mercado, como son OpenAI y Google en estos momentos. Ya no solo compiten entre ellos, sino que, primero con DeepSeek, y ahora con Qwen3, se están viendo superados con rotundidad desde Asia.
Cómo utilizar Qwen3 en tu PC
Lo primero que tenemos que hacer es descargar Ollama desde su propio sitio web oficial, que encontrarás por su mismo nombre. Y junto a Ollama, también deberás hacerte con Docker, que también dispone de su propia web oficial. Ahora que ya tienes Ollama, solo tienes que abrirlo y dejarlo ejecutarse en segundo plano.
Lo importante viene ahora, y es que desde la terminal, deberás ejecutar:
ollama pull qwen3
para descargar el modelo Qwen3.
Ahora que ya lo tienes, solo te queda iniciarlo desde Ollama, y para ello puedes volver a la terminal y ejecutar «ollama run qwen3». Y listo, tendrás el modelo para utilizarlo de manera local.