Skip to main content
Cristhian Villegas
AI9 min read2 views

Por qué la IA está volviendo más perezosas a las personas en 2026: una mirada técnica

Por qué la IA está volviendo más perezosas a las personas en 2026: una mirada técnica

Un fenómeno silencioso que llevo meses observando

Como persona que combina la curiosidad por lo extraño con un sesgo permanente hacia la evidencia, llevo casi un año notando algo que merece nombre propio: una caída lenta, casi invisible, en la disposición a pensar por uno mismo. No es dramática, no entra en una fotografía, no hace ruido. Pero ahí está, medible en estudios serios y reproducible en mi propia rutina si bajo la guardia.

No voy a culpar a la inteligencia artificial. Sería intelectualmente perezoso —ironía notada— sostener que una herramienta es responsable del comportamiento de quien la usa. Lo que sí voy a hacer es desarmar el fenómeno como quien desarma un caso catalogado entre lo extraño: con datos, con preguntas incómodas y sin caer en el sensacionalismo.

Visualización abstracta de inteligencia artificial y mente humana

Fuente: Google DeepMind — Unsplash

📌 Para situarnos: El término clínico es cognitive offloading — descarga cognitiva. Consiste en delegar a un objeto externo (un cuaderno, un GPS, un modelo de lenguaje) tareas mentales que antes resolvíamos por nosotros mismos: recordar, calcular, decidir, redactar, comparar. No es un concepto nuevo, pero en 2026 ha cambiado de escala.

1. La evidencia, no la intuición

Cualquiera que haya investigado un fenómeno raro sabe que la sensación personal no alcanza. Hace falta evidencia replicable. Tres trabajos publicados entre 2025 y 2026 me parecen los más sólidos para pensar este tema sin exagerar ni minimizar:

  • MIT Media Lab — "Your Brain on ChatGPT" (junio de 2025). Investigadoras del grupo de Pattie Maes registraron la actividad cerebral con EEG mientras grupos de estudiantes escribían ensayos en tres condiciones: solo con su cabeza, con un buscador tradicional o con ChatGPT. El grupo que delegaba en el LLM mostró la menor conectividad neuronal entre regiones asociadas al razonamiento, peor recuerdo de su propio texto semanas después y un sentimiento de propiedad sobre el resultado notablemente más bajo.
  • Microsoft Research + Carnegie Mellon (enero de 2025). Encuestaron a 319 trabajadores del conocimiento sobre 936 tareas reales hechas con IA generativa. Conclusión central: cuanta más confianza depositaban los participantes en la IA, menos esfuerzo de pensamiento crítico aplicaban. A la inversa, quienes desconfiaban un poco verificaban más, comparaban fuentes más y razonaban más.
  • Encuestas de Pew Research 2025–2026. Más del 60% de los usuarios frecuentes de chatbots reportan que prefieren pedir una respuesta directa antes que buscarla en varias fuentes. Hace tres años esa proporción no llegaba al 30%.

Tres metodologías diferentes —electroencefalografía, encuesta a profesionales, comportamiento observado— apuntando al mismo lugar. Para mi criterio eso es señal, no ruido.

2. ¿Por qué a esta herramienta le pasa lo que no le pasó a las anteriores?

Hay una objeción clásica, y razonable, que vale la pena tomar en serio: "Pasó lo mismo con la calculadora, con el GPS, con Google. Nadie se volvió tonto. Aquí seguimos." Es una buena objeción. Mi respuesta es que la diferencia con las herramientas anteriores es de amplitud y de profundidad cognitiva:

HerramientaQué delegamosQué seguimos haciendo nosotros
CalculadoraAritméticaPlantear el problema, interpretar el resultado
GPSMemoria espacialDecidir el destino, evaluar el contexto
BuscadorRecuperar informaciónFormular la pregunta, comparar fuentes, sintetizar
LLM modernoFormular, sintetizar, redactar, decidir, evaluar fuentes... pulsar Enter

Un LLM no automatiza un eslabón aislado de la cadena de pensamiento: puede automatizar casi todos los eslabones a la vez. Si uno no tiene el hábito de bajarse del coche cada cierto tiempo, el músculo se atrofia. No es magia, es fisiología cognitiva.

3. Lo que cambia en el cerebro (y lo que no)

Representación de circuitos electrónicos parecidos a una red neuronal

Fuente: Alex Knight — Unsplash

Aquí conviene bajar el tono apocalíptico. La neurociencia no dice que un usuario de ChatGPT pierda neuronas. Lo que muestran trabajos como el del MIT es algo más sutil: en el momento en que delegamos una tarea, el patrón de actividad cerebral asociado a esa tarea se aplana. Si la delegación se vuelve un hábito permanente, la neuroplasticidad —que es indiferente a nuestras buenas intenciones— responde reforzando los circuitos que sí usamos y debilitando los que no.

Dicho de otro modo: el cerebro hace lo que cualquier sistema biológico eficiente hace. Reasigna recursos. Si dejamos de redactar, redactar cuesta más. Si dejamos de recordar, recordar cuesta más. No es un castigo metafísico, es contabilidad metabólica.

⚠️ Cuidado con las conclusiones rápidas: los estudios actuales miden efectos a corto plazo en tareas concretas. Nadie ha demostrado todavía un daño cognitivo permanente en usuarios adultos sanos. Lo que sí está documentado es la tendencia. Y las tendencias, cuando se repiten miles de veces, terminan moldeando personas.

4. Tres patrones de uso que vienen apareciendo en 2026

Conviviendo con IA todos los días en mi propio trabajo, he identificado tres patrones que empujan hacia la pereza cognitiva. Los nombro porque nombrarlos ayuda a reconocerlos en el momento:

Patrón A — "Preguntarle al oráculo"

Consiste en lanzar una sola pregunta amplia, aceptar la primera respuesta como definitiva y avanzar. Es el equivalente a entrar a una biblioteca, abrir el primer libro disponible y salir sin abrir un segundo.

Patrón B — "Copiar y pegar a ciegas"

Habitual entre quienes recién empiezan a programar o a escribir. La salida del modelo entra al documento sin lectura crítica. Funciona, hasta que un día deja de funcionar y nadie sabe por qué.

Patrón C — "Delego porque tengo prisa"

El más peligroso de los tres porque es razonable. La presión del calendario empuja a delegar todo lo delegable. El problema es que la prisa, repetida durante meses, se convierte en hábito; y el hábito, en piso firme donde antes había criterio.

5. Cómo se ve esto en código

Los desarrolladores no somos inmunes. Al contrario: probablemente estamos en la primera línea del experimento. Los dos ejemplos siguientes ilustran la diferencia entre un uso "pasivo" y uno "activo" de un asistente de IA sobre una misma tarea.

bash
1# Patrón pasivo — el asistente decide, yo aplico
2$ ai "arregla este bug en login.ts"
3> Aquí tienes la corrección...
4$ git apply patch.diff
5$ git commit -m "fix: login bug"
6# Resultado: el bug ya no aparece. Tampoco entiendo por qué desapareció.
bash
1# Patrón activo — el asistente sugiere, yo verifico
2$ ai "explícame qué hace esta función paso a paso, sin proponer cambios todavía"
3$ ai "¿qué hipótesis explicarían este comportamiento? lista tres"
4$ # Reviso las hipótesis, descarto dos, pruebo la tercera
5$ ai "valida si mi solución cubre el caso de borde X"
6$ git commit -m "fix(login): timezone shift on token expiry"
7# Resultado: el bug se va y entiendo el sistema un poco mejor.

Los dos flujos producen un commit que cierra el ticket. Solo uno produce un programador con más criterio al día siguiente.

6. Un ejercicio simple para no perder el hilo

El siguiente script es trivial, pero el ritual que impone no lo es. Lo uso como recordatorio: antes de aceptar una respuesta del modelo, escribo en un archivo qué pregunta hice, qué esperaba y qué me sorprendió o no encajó. Obliga a pensar después, que es justamente lo que la prisa nos quita.

python
1# interrogate.py — un diario de uso crítico de IA
2from datetime import datetime
3from pathlib import Path
4
5LOG = Path.home() / ".ai-journal.md"
6
7def registrar(pregunta: str, expectativa: str, sorpresa: str) -> None:
8    entrada = f"""
9## {datetime.now().isoformat(timespec='minutes')}
10- **Pregunté:** {pregunta}
11- **Esperaba:** {expectativa}
12- **Me sorprendió:** {sorpresa}
13"""
14    with LOG.open("a", encoding="utf-8") as f:
15        f.write(entrada)
16    print(f"Entrada guardada en {LOG}")
17
18if __name__ == "__main__":
19    registrar(
20        pregunta=input("¿Qué le preguntaste al modelo? "),
21        expectativa=input("¿Qué esperabas escuchar? "),
22        sorpresa=input("¿Qué te llamó la atención de la respuesta? "),
23    )

Tres preguntas. No es elegante. Funciona porque obliga a procesar la respuesta en lugar de consumirla. En mis semanas con este diario he notado algo concreto: al escribir qué esperaba y qué me sorprendió, empiezo a detectar con mucha más facilidad las respuestas que suenan bien pero son inventadas. Ese filtro, hace un año, lo tenía más flojo.

7. El paralelo que sí me parece útil

Aquí entra mi otro lado. He pasado años leyendo sobre fenómenos extraños y aprendiendo a separar lo que tiene evidencia de lo que tiene buen marketing. Lo que más me llama la atención en este asunto de la IA no es lo nuevo, sino lo viejo: la tentación humana de delegar el juicio en algo que parece saber más.

En la historia, esa figura ha sido el oráculo, el augur, el experto incuestionable. La promesa siempre es la misma: "ahórrate la fatiga de pensar, yo ya pensé por ti". Y la consecuencia, cuando la promesa se acepta sin filtro, también es siempre la misma: se pierde contacto con los criterios que permitirían dudar de la respuesta.

La diferencia importante con un oráculo de templo es que un modelo de lenguaje no afirma saber. Solo predice la siguiente palabra más probable dado el contexto. Si lo tratamos como oráculo, el problema no es del modelo. Es nuestro. Y como con cualquier creencia mal calibrada, la solución no es destruir la herramienta: es cambiar la relación con ella.

8. Lo que sí está funcionando en 2026

Persona escribiendo en una laptop junto a una libreta

Fuente: Christin Hume — Unsplash

No todo es deriva. Algunos equipos y personas están probando cosas que, hasta donde puedo observar, contienen el efecto:

  • "AI-off Fridays" en algunos equipos de ingeniería: un día a la semana sin asistentes, para mantener la musculatura técnica de fondo.
  • Revisiones cruzadas obligatorias de cualquier código generado por IA antes de mergear, con una regla simple: "explica con tus palabras qué hace esto".
  • Diarios de uso crítico, como el de la sección anterior, en consultoras y equipos de investigación. Ridículamente simples, sorprendentemente efectivos.
  • Universidades que han dejado de prohibir la IA y han empezado a pedir que el alumno entregue, junto al ensayo, una crítica de lo que el modelo le sugirió y una justificación de por qué la aceptó o la rechazó.
💡 Una idea que me parece sana: tratar a un modelo de lenguaje como tratarías a un colega muy productivo y muy seguro de sí mismo, pero del que sabes que a veces inventa. No lo ignoras. Tampoco le firmas un cheque en blanco.

9. Conclusión: no es la herramienta, es el ritual

Si tuviera que resumir todo lo anterior en una sola frase, sería esta: la IA no nos vuelve perezosos; nos ofrece, por primera vez en la historia, una pereza eficiente. La diferencia importa. La pereza eficiente se siente como productividad. Por eso es difícil de detectar y por eso vale la pena ponerle nombre.

La salida no es regresar al cuaderno y la pluma. Es mucho menos romántica: diseñar rituales de uso. Decidir qué quiero pensar yo y qué estoy dispuesto a delegar. Verificar lo delegado. Llevar registro. Tomarme un día sin asistentes de vez en cuando, no por nostalgia, sino por la misma razón por la que un corredor entrena en cuesta.

El cerebro, como cualquier órgano, responde a lo que se le pide. Si en 2026 le pedimos poco, en 2027 nos devolverá poco. Si seguimos haciéndole preguntas duras —incluso teniendo una respuesta a un clic— seguirá afilándose. Eso, al menos, sí lo controlamos nosotros.

Share:
CV

Cristhian Villegas

Software Engineer specializing in Java, Spring Boot, Angular & AWS. Building scalable distributed systems with clean architecture.

Comments

Sign in to leave a comment

No comments yet. Be the first!

Related Articles

Mantente actualizado

Recibe notificaciones cuando publique nuevos artículos en español. Sin spam, cancela cuando quieras.