IA en Los Negocios

99% de calidad por 1,4% del precio: qué falla en el mercado de modelos de IA

8 min de lectura

La mayoría de los managers eligen un modelo de IA así: cogen el más caro disponible. La lógica es comprensible – más caro significa mejor. Así ha funcionado con el software empresarial durante los últimos veinte años.

El mercado de modelos de IA en 2026 funciona de otra manera. El coste de una sola consulta varía de $0,0001 a $0,17 – tres órdenes de magnitud. ¿Y la diferencia real de calidad entre los diez mejores modelos? 0,24 puntos en una escala de cinco. Mientras tanto, Wharton / GBK Collective constata que un tercio de los proyectos corporativos de IA no pasan de la fase piloto. Y Epoch AI muestra que solo el 5,6% de los usuarios aplica la IA de forma realmente profunda.

Quizás la pregunta no es qué modelo es mejor, sino si pagar de más por el premium produce un resultado proporcionalmente mejor en tareas de gestión típicas.

Lo comprobamos. La respuesta fue más dura de lo esperado.

Leer más
99% de calidad por 1,4% del precio: qué falla en el mercado de modelos de IA
El 62% de los usuarios de IA la aplica solo a 1–2 tareas: datos de Epoch AI / Ipsos (marzo 2026)
10 min

El 62% de los usuarios de IA la aplica solo a 1–2 tareas: datos de Epoch AI / Ipsos (marzo 2026)

En noviembre de 2025, los datos de Stanford mostraron un hecho inesperado: los estadounidenses usan IA con más frecuencia en casa que en el trabajo. En mysummit.school lo analizamos en un artículo aparte – y la conclusión entonces fue directa: la IA en el trabajo aún iba por detrás de la personal.

Han pasado cuatro meses. Epoch AI, junto con Ipsos, publicó un nuevo estudio – y el panorama ha cambiado.

El agente en lugar del chat: análisis de datos sin copiar y pegar
12 min

El agente en lugar del chat: análisis de datos sin copiar y pegar

Tienes tres archivos de datos: el funnel de activación, los resultados de un test A/B y los tickets de soporte. La tarea – entender por qué el onboarding se está atascando. Abres ChatGPT, subes el primer archivo, haces una pregunta. Obtienes una respuesta. Subes el segundo archivo. ChatGPT pregunta: ¿puedes recordarme el contexto? Subes el tercero. El contexto del primer archivo ya ha sido desplazado.

Cuarenta minutos después tienes tres conversaciones separadas, y ninguna responde a la pregunta original. Porque la pregunta era una sola, y los datos – estaban en tres sitios distintos.

No es un problema de ChatGPT. Es un problema de enfoque.

La IA no te hace más tonto. El problema es cómo la usas
9 min

La IA no te hace más tonto. El problema es cómo la usas

Hace año y medio escribí una nota en mi blog personal sobre algo que observaba en el trabajo de mis colegas y en el mío propio: cuanto más confías en la IA, con menos frecuencia te preguntas «¿esto realmente es correcto?». En aquel momento me basaba en un estudio de Microsoft que mostraba que la confianza en la IA suprime la evaluación crítica de las respuestas generadas. El argumento me parecía sólido, pero tenía un defecto evidente: correlación, no causalidad.

En febrero de 2026, los investigadores de Anthropic Judy Shen y Alex Tamkin publicaron un experimento que cerró esa brecha. Control aleatorizado. Datos concretos. Y una conclusión que, en mi opinión, la mayoría de quienes la leyeron interpretaron mal.

Porque no es una historia sobre cómo la IA nos hace más tontos. Es una historia sobre cómo exactamente la utilizamos.

9 preguntas para ti mismo: ¿usas la IA o la IA te usa a ti?
12 min

9 preguntas para ti mismo: ¿usas la IA o la IA te usa a ti?

Hace poco estaba preparando una propuesta comercial para un nuevo cliente. El monto era inusual, las condiciones – también. Mi voz interior decía: pon X, conoces este mercado. Pero decidí “verificar” con Claude. El modelo me dio una respuesta argumentada con otra cifra – un 15% más baja que mi estimación. Sonaba convincente. Cambié la cifra.

Una semana después, el cliente firmó sin negociar. Y en lugar de satisfacción, sentí irritación: ¿y si mi cifra original también habría funcionado? Nunca lo sabré – porque en el momento de decidir suprimí mi propio juicio a favor de una respuesta “estadísticamente fundamentada” del algoritmo.

Esto es exactamente el patrón que los investigadores de Anthropic llaman Disempowerment – pérdida de control. No es dramático, no es obvio. Simplemente una sustitución silenciosa del “yo decidí” por “la IA me sugirió”.

El dilema de la transparencia: ¿decirle al cliente que el texto lo escribió una IA?
17 min

El dilema de la transparencia: ¿decirle al cliente que el texto lo escribió una IA?

Escribiste el correo perfecto para un cliente. El tono es preciso, los argumentos están bien estructurados, incluso hay un toque de humor en el momento justo. Solo hay un problema: no lo escribiste tú. Lo escribió Claude. O ChatGPT. O Gemini – da igual.

Ahora la pregunta: ¿se lo vas a decir al cliente?

La intuición dice: «Claro que no. ¿Qué importa cómo se escribió si está bien escrito?». La ética corporativa susurra: «Hay que ser transparente». Y la ciencia dice algo inesperado: ambas opciones destruyen la confianza – pero de formas distintas y con consecuencias diferentes.