Por qué tanta gente está convirtiendo la IA en un oráculo digital

Por qué tanta gente está convirtiendo la IA en un oráculo digital

Lo que de verdad me inquieta de la IA no es solo que los sistemas puedan escribir, resumir y responder preguntas a demanda. Es la velocidad con la que algunas personas pasan de “esta herramienta es útil” a “esta cosa sabe”. Ya se ve el patrón: gente que le pide orientación emocional a un chatbot, que cita respuestas generadas como si fueran verdad final, que trata las alucinaciones como señales ocultas y que habla de AGI en un tono que suena menos a adopción de producto y más a creencia.

Ese cambio no es aleatorio. La máquina habla con una voz en la que mucha gente ya está entrenada para confiar: calmada, segura, paciente, siempre disponible y extrañamente completa. En cuanto un sistema puede responder al instante, hacerse eco de tus miedos, halagar tu visión del mundo y repetir lo que quieres oír sin cansarse nunca, para algunos usuarios deja de sentirse como software. Empieza a sentirse como un oráculo.

El primer problema es el estilo, no la verdad

La IA es extremadamente buena sonando más segura de lo que merece sonar.

Eso importa porque la mayoría de la gente no verifica afirmaciones reconstruyendo cada frase desde cero. Responde a señales:

  • seguridad
  • estructura
  • fluidez
  • velocidad
  • lenguaje que parece cita
  • autoridad calmada

Los grandes modelos de lenguaje son muy buenos generando exactamente esas señales.

Eso significa que una respuesta endeble todavía puede caer con el peso emocional de la pericia.

Y una vez que eso ocurre suficientes veces, la gente deja de revisar el contenido tan a fondo como debería.

La máquina siempre responde, y eso cambia a la gente

Creo que esta parte es subestimada por la gente técnica.

El sistema siempre tiene tiempo para ti.

No suspira.

No te dice que estás pidiendo demasiado.

No se impacienta cuando haces la misma pregunta otra vez.

Si alguien está solo, confundido, ansioso o en espiral, eso importa muchísimo.

La máquina puede no ser sabia, pero está disponible. Y la disponibilidad es uno de los caminos más rápidos hacia la confianza.

Eso es parte de por qué el vínculo se distorsiona tan rápido.

La repetición convierte el consuelo en creencia

En cuanto la gente empieza a usar un modelo todos los días, aparece un patrón mental predecible:

  • “entiende cómo pienso”
  • “ya me ayudó antes”
  • “conoce mi situación”
  • “me entiende”

Eso es peligroso.

La interacción repetida crea familiaridad.

La familiaridad crea consuelo.

Y el consuelo se malinterpreta como fiabilidad.

Así es como una herramienta empieza a convertirse en una voz de confianza incluso cuando el sistema de fondo sigue siendo perfectamente capaz de producir tonterías.

Gran parte de esta fe se está fabricando a propósito

También creo que la gente necesita ser más honesta respecto de cuánto misticismo de IA se le está sirviendo activamente.

Las empresas inflan a los sistemas.

Los medios inflan a los sistemas.

Los influencers inflan a los sistemas.

Cada semana a la gente se le cuenta la misma historia en escalada:

  • nivel experto
  • casi humano
  • a un paso de la AGI
  • listo para reemplazar profesiones
  • listo para rehacer la civilización

Ese entorno importa.

Si rodeas a los usuarios con suficiente mensaje de “esta máquina es genial”, algunos se acercarán a ella con reverencia antes siquiera de haber aprendido sus modos de fallo.

El viejo hambre humana sigue siendo el mismo

Aquí es donde todo empieza a sentirse más viejo que la propia tecnología.

Algunas personas no solo buscan respuestas.

Buscan sentido.

Quieren una voz que explique el caos, calme el miedo, descifre el futuro y les diga que lo que están viviendo encaja dentro de un patrón más grande.

Históricamente, la gente acudió a:

  • profetas
  • místicos
  • gurús
  • presagios
  • rituales

Ahora algunas personas están haciendo una versión de software de la misma cosa.

La interfaz cambió. La necesidad no.

Por eso el hype de la AGI es tan peligroso

La gran historia de la AGI empeora todo.

Porque la AGI no se vende solo como un hito técnico. Se vende como destino:

  • la historia se está acelerando
  • la inteligencia está renaciendo
  • un pequeño grupo de constructores está empujando a la humanidad hacia delante
  • tanto la salvación como la catástrofe están cerca

Ese lenguaje no solo vende productos.

Vende importancia.

Y una vez que una tecnología queda envuelta en importancia, el escepticismo ordinario se debilita.

El desorden del presente queda escondido detrás de la gran promesa

Esta es otra razón por la que desconfío del discurso sobre IA cuando se pone demasiado cósmico.

Cuanto más se anima a la gente a mirar futuros abstractos como una divinidad digital o una AGI a escala civilizatoria, menos mira los problemas feos y en tiempo real que ya están enfrente:

  • alucinaciones
  • autoridad falsa
  • sesgo
  • explotación laboral en el trabajo de datos
  • sobreapego emocional
  • engaño de producto
  • coste ambiental

Eso no es un accidente. Los grandes futuros son una forma muy eficaz de distraer a la gente del daño actual.

Reflexión final

Entonces, ¿por qué tanta gente está convirtiendo la IA en un oráculo digital?

Porque el sistema está construido para sonar autoritario, permanecer disponible y sentirse íntimo. Porque el hype entrena a la gente para esperar genialidad. Porque la repetición crea confianza falsa. Porque algunos usuarios quieren certeza y sentido más de lo que quieren una duda cuidadosa.

La máquina no necesita ser realmente sabia para ser tratada como sabia.

Solo necesita sonar sabia dentro de una cultura que ya está preparada para confundir poder digital con verdad digital.

Por eso la fe ciega en la IA me parece tan peligrosa.

No solo porque el sistema puede estar equivocado.

Sino porque puede estar equivocado con una voz que mucha gente ya está preparada para obedecer.