Estadísticas

99% de calidad por 1,4% del precio: qué falla en el mercado de modelos de IA

8 min de lectura

La mayoría de los managers eligen un modelo de IA así: cogen el más caro disponible. La lógica es comprensible – más caro significa mejor. Así ha funcionado con el software empresarial durante los últimos veinte años.

El mercado de modelos de IA en 2026 funciona de otra manera. El coste de una sola consulta varía de $0,0001 a $0,17 – tres órdenes de magnitud. ¿Y la diferencia real de calidad entre los diez mejores modelos? 0,24 puntos en una escala de cinco. Mientras tanto, Wharton / GBK Collective constata que un tercio de los proyectos corporativos de IA no pasan de la fase piloto. Y Epoch AI muestra que solo el 5,6% de los usuarios aplica la IA de forma realmente profunda.

Quizás la pregunta no es qué modelo es mejor, sino si pagar de más por el premium produce un resultado proporcionalmente mejor en tareas de gestión típicas.

Lo comprobamos. La respuesta fue más dura de lo esperado.

Leer más
99% de calidad por 1,4% del precio: qué falla en el mercado de modelos de IA
El 62% de los usuarios de IA la aplica solo a 1–2 tareas: datos de Epoch AI / Ipsos (marzo 2026)
10 min

El 62% de los usuarios de IA la aplica solo a 1–2 tareas: datos de Epoch AI / Ipsos (marzo 2026)

En noviembre de 2025, los datos de Stanford mostraron un hecho inesperado: los estadounidenses usan IA con más frecuencia en casa que en el trabajo. En mysummit.school lo analizamos en un artículo aparte – y la conclusión entonces fue directa: la IA en el trabajo aún iba por detrás de la personal.

Han pasado cuatro meses. Epoch AI, junto con Ipsos, publicó un nuevo estudio – y el panorama ha cambiado.

Cuándo la IA perjudica el aprendizaje – y cuándo duplica los resultados
12 min

Cuándo la IA perjudica el aprendizaje – y cuándo duplica los resultados

En marzo de 2025, en SXSW EDU, la asesora en prospectiva estratégica Sinead Bovell presentó una conferencia sobre la IA y el futuro de la educación. Sin euforia y sin alarma. Pero con dos estudios que cambian la forma de pensar sobre el papel de la IA en el aprendizaje.

El primero: un grupo de estudiantes que usó ChatGPT sin restricciones obtuvo resultados un 17% peores que el grupo de control que trabajó con el libro de texto. El segundo: otro grupo, donde la IA se aplicó dentro de un sistema de aprendizaje completamente rediseñado, duplicó los resultados frente a la clase magistral tradicional.

La misma herramienta. Resultados opuestos. La diferencia está en el enfoque.

GigaChat Ultra Thinking: piensa mas tiempo – responde peor?
8 min

GigaChat Ultra Thinking: piensa mas tiempo – responde peor?

GigaChat Ultra Thinking piensa mas tiempo y consume mas recursos computacionales. Las tareas de gestion las resuelve un 3,3% peor que la version sin razonamiento. Esto no es un error ni una casualidad – es un patron documentado por trabajos academicos durante los ultimos dos anos.

Esta semana, Sber presento GigaChat Ultra – su nuevo modelo insignia con modo de razonamiento (Thinking). El modelo esta disponible de forma gratuita en la version web, aplicaciones moviles y a traves del bot de Telegram. Anadimos inmediatamente ambas variantes a nuestra investigacion de modelos de IA para gestores: los evaluamos en los 32 escenarios siguiendo la metodologia unificada, los calificamos con ambos jueces LLM y los comparamos con los otros 52 modelos.

La IA ahorra al docente 6 horas por semana. Pero el 97% no lo nota
13 min

La IA ahorra al docente 6 horas por semana. Pero el 97% no lo nota

La encuesta de Gallup y Walton Family Foundation (2024–2025, muestra representativa de docentes en EE.UU.) registró una cifra impresionante: los profesores que usan IA de forma regular ahorran en promedio 5,9 horas por semana – el equivalente a seis semanas laborales completas en un año escolar. Suena como un problema resuelto.

Pero la encuesta paralela de la Royal Society of Chemistry (2024, Reino Unido) muestra otra realidad: el 44% de los docentes probó la IA, pero solo el 3% reportó una reducción real de su carga laboral. Un profesor de matemáticas de Irlanda explicó la brecha con más precisión que cualquier estadística: «La IA genera fichas rápido, pero hay que revisarlas a fondo – y el ahorro de tiempo termina siendo menor de lo esperado».

¿Quién tiene razón? Ya analizamos la crisis de la IA en la educación desde la perspectiva del estudiante – el 86 % de los estudiantes usan IA, pero el pensamiento crítico se degrada. Ahora – la perspectiva del instructor. En los últimos dos años se han acumulado suficientes datos experimentales para responder a esta pregunta no con opiniones, sino con cifras.

La IA no te hace más tonto. El problema es cómo la usas
9 min

La IA no te hace más tonto. El problema es cómo la usas

Hace año y medio escribí una nota en mi blog personal sobre algo que observaba en el trabajo de mis colegas y en el mío propio: cuanto más confías en la IA, con menos frecuencia te preguntas «¿esto realmente es correcto?». En aquel momento me basaba en un estudio de Microsoft que mostraba que la confianza en la IA suprime la evaluación crítica de las respuestas generadas. El argumento me parecía sólido, pero tenía un defecto evidente: correlación, no causalidad.

En febrero de 2026, los investigadores de Anthropic Judy Shen y Alex Tamkin publicaron un experimento que cerró esa brecha. Control aleatorizado. Datos concretos. Y una conclusión que, en mi opinión, la mayoría de quienes la leyeron interpretaron mal.

Porque no es una historia sobre cómo la IA nos hace más tontos. Es una historia sobre cómo exactamente la utilizamos.

KazLLM e IA soberana: guía para el funcionario público de Kazajistán
14 min

KazLLM e IA soberana: guía para el funcionario público de Kazajistán

El 11 de febrero de 2026, en una sesión del gobierno, el presidente Tokáyev criticó públicamente KazLLM. El modelo, lanzado con gran pompa en diciembre de 2024, tiene apenas 600 mil usuarios – el 3% de la población del país. A modo de comparación: ChatGPT en Kazajistán cuenta con 2,6 millones de usuarios. El presidente fue directo: KazLLM «no puede competir con ChatGPT».

Esta declaración plantea la cuestión de forma tajante. ¿Para qué necesita Kazajistán su propio modelo lingüístico si las soluciones globales funcionan mejor? Y si la IA soberana es necesaria – ¿por qué está perdiendo?

La respuesta es más compleja de lo que parece. Porque KazLLM no es «el ChatGPT kazajo». Es una herramienta completamente diferente con una misión diferente. Y compararlos es como comparar una central eléctrica nacional con un electrodoméstico importado.