Apple ha publicado el estudio The Illusion of Thinking, en el que concluye que modelos como ChatGPT y Claude no piensan ni razonan: simplemente ejecutan patrones. Para demostrarlo, introduce los LRMs, una arquitectura alternativa que razona paso a paso, aunque no siempre con éxito.
Apple desafía a ChatGPT: ¿puede una IA realmente pensar?
Un paper que pone en duda todo
El estudio, elaborado por el equipo de Apple Machine Learning Research, parte de una hipótesis provocadora: lo que entendemos como razonamiento en IA no es más que una ilusión estructural. En concreto, afirma que los LLMs (Large Language Models) como ChatGPT o Claude no poseen pensamiento real, sino que verbalizan cadenas de respuesta sin comprender los problemas.

¿Qué son los LRMs?
Como alternativa, Apple presentó los LRMs (Large Reasoning Models). Estos modelos generan pasos intermedios antes de dar una respuesta. Su prueba de fuego fue una serie de puzzles sintéticos con dificultad creciente, diseñados para evitar atajos basados en memoria previa del entrenamiento.

Resultados contradictorios
Los LRMs superan a los LLMs en problemas de complejidad media gracias a su capacidad de razonamiento explícito. Sin embargo, en puzzles simples, su rendimiento cae. Y en tareas más complejas, sufren colapsos inesperados sin agotar sus recursos. Según Apple, razonar puede ser una trampa para la propia IA.
El estudio señala que lo que parece un razonamiento es solo una repetición de patrones lingüísticos. Así, Claude, Gemini, Perplexity o ChatGPT quedarían bajo la misma crítica: su aparente capacidad de pensar sería solo un espejismo algorítmico.
El documento surge en un momento en el que Apple no lidera la carrera por la IA, pese a sus acuerdos con empresas como OpenAI. Este paper podría interpretarse tanto como un diagnóstico sincero como una estrategia de diferenciación en un mercado dominado por otros.