Si parpadeas, te comen la merienda.
Microsoft: Copilot ya no solo responde, también “trabaja contigo”
El 30 de marzo, Microsoft anunció que Copilot Cowork (El rollo Agente IA de Microsoft diseñado para ejecutar tareas complejas y de múltiples pasos) llega a Frontier (el espacio de pruebas anticipadas de MS para nuevas capacidades de IA).
Si tenemos un Microsoft 365 con capacidades integradas potentes de agente de IA, desde luego, mi suscripción va a durar unos años más. La suite de Microsoft le da 100 vueltas a la de Apple y si encima aprovechan el acelerón, no va a haber quien se compare.
Google: Gemma 4, Gemini 3.x y el contexto largo
El 2 de abril, Google presentó Gemma 4, una familia de modelos abiertos centrados en razonamiento y workflows agentic, como parte de sus anuncios de marzo sobre IA.
El nombre Gemma es del latín Gema y refleja la alta calidad y el valor de los modelos más ligeros y ‘abiertos’, creados a partir de la misma tecnología e investigación que Gemini. Y más fun facts, que dicen en la lengua del imperio: Gemini viene de ‘gemelos’ porque, según dicen, se creó uniendo los dos equipos de Google que trabajaban en IA: Google Brain y DeepMind. (Bueno y ya que estamos aquí Claude viene de Claude Shannon, el fundador de la teoría de la información).
Con este paso Google compite teniendo a la vez modelos super-avanzados (frontera) y open-weight (como Gemma).
De qué van los modelos Open Weight.
Estos modelos publican sus parámetros entrenados, los pesos o weights, y los hacen disponibles para que cualquiera pueda descargarlos, utilizarlos, modificarlos y ejecutarlos en su propia infraestructura
Así, en pocas palabras, ¿Qué tienen de especial?
- Acceso a los parámetros (Pesos): Los usuarios obtienen la red neuronal entrenada. Esto permite ver cómo funciona el modelo y utilizarlo sin restricciones.
- Despliegue local: Por eso mismo pueden ejecutarse en computadoras personales o servidores propios -> garantiza privacidad y control total de los datos.
- Ajuste fino (Fine-tuning): Se puede teóricamente personalizar el modelo para casos de uso específicos.
- Diferencia con Open Source (Código Abierto): Los modelos open-weight no son necesariamente Open-Source. Generalmente publican los pesos, pero no el código fuente de entrenamiento, la metodología ni los conjuntos de datos (datasets) utilizados para entrenarlos.
1 millón de tokens de contexto como estándar
Otra cosa de Gemma 4. G4 se suma a Gemini 3.1 Pro y Flash, modelos que ya manejan contextos de hasta 1–2 millones de tokens
Algo que se está consolidando justo ahora es que la ventana de contexto de 1 millón de tokens deja de ser cosa de una demo y pasa a ser estándar en los modelos punteros. Es decir, estándar. OpenAI ha presentado GPT‑5.4 con una ventana de contexto de 1M tokens en modo extendido, diseñado para el análisis de documentos largos, bases de código completas y la planificación de agentes de un montón de pasos en una sola sesión. Anthropic va en la misma línea con Claude Opus 4.6 y Sonnet 4.6. Igual que Google (1M–2M tokens en Gemini 3.1 Pro y Flash).
¿Entonces? La consecuencia es fragmentar menos los documentos, repetir menos contexto y poder tratar proyectos enteros (código, documentación, histórico de decisiones) como una sola unidad de trabajo para la IA. Para quienes usamos modelos como copilots, esto seguramente tiene más impacto en la productividad que muchas features más vistosas.
¿1M de tokens en castellano? 1M tokens son muchísimo texto. Se puede aproximar así:
- Un millón de tokens = 700.000–750.000 palabras de texto.
- Eso equivale a unas 2.000–2.500 páginas de un libro
- En código, unas 50.000 líneas (a 80 caracteres por línea).
- O decenas de PDFs largos juntos.

Peroooo aún hay quien sigue —seguimos— diciendo que mucho contexto no siempre es mejor y que, a veces, gestionarlo bien da mejores resultados. ¿Y eso?
- Más contexto puede saturar al modelo. A medida que metes más datos en el contexto, la “capacidad de atención” del modelo se satura y el rendimiento puede empeorar (respuestas menos precisas, más ruido). TLDR; Si metes todo sin filtro, la calidad baja; hay que seleccionar, resumir y diseñar el software para manejar límites de contexto, no solo abrir la ventana al máximo.
- No puedes meter “todo el contexto humano” aunque la ventana sea enorme. TLDR; incluso con ventanas grandes, sigue siendo crítico elegir qué contexto dar y qué no, porque meterlo todo no equivale a tener que «entenderlo» todo.
- RAG bien diseñado vs. contexto largo bruto. Aunque los modelos de contexto largo rinden muy bien en ciertas tareas, RAG sigue siendo preferible en escenarios con muchos datos, por eficiencia y coste.
Traducción práctica
- “Las ventanas de 1M tokens son increibles, pero el reto entonces deviene no el meter más cosas, sino decidir qué entra y qué no.
- Hay numerosos artículos técnicos -algunos de los propios creadores de los modelos- que muestran que muchos modelos con ventanas declaradas de 128K–1M tokens degradan claramente su rendimiento cuando te acercas al límite, aunque “sobre el papel” soporten ese tamaño de contexto.
- Empresas de arquitectura/ingeniería de contexto (p.ej., Elastic) explican que rellenar la ventana con demasiada información irrelevante genera “podredumbre de contexto”, ruido, degradación de calidad y aumento de coste, y que el reto real es seleccionar y estructurar bien qué entra en la ventana, no simplemente meter más.
Anthropic: modelos “peligrosos”, alianzas con estados y la batalla por el compute
Anthropic tampoco ha aflojado. En estos días han seguido apareciendo análisis sobre Claude Mythos Preview, un modelo orientado a ciberseguridad que ellos mismos califican como demasiado potente para un despliegue abierto y que mantendrán bajo fuertes restricciones. Quizás porque no hay quien se resista al clickbait del título… ‘Agentes IA peligrosos’ esto se publicó también en ElPais: Anthropic oculta su nuevo modelo de IA, Mythos, por ser demasiado peligroso.
En paralelo, ahí está su conflicto con el Departamento de Defensa de US. ¿Pueden negarse legítimamente a usos militares y de vigilancia masiva de sus modelos incluso cuando los contratos serían legales?



Deja un comentario