Hay una inquietud nueva que aparece en conversaciones cotidianas, en consultas médicas y en reuniones de trabajo: una especie de cosquilleo mental que no llega a ser pánico, pero tampoco se va. Se parece a esa sensación de entrar en tu app bancaria y descubrir que han movido todos los botones: sabes que sigue siendo “tu banco”, pero te sientes menos seguro. A eso mucha gente ya le pone nombre: ansiedad por la IA.
En un texto difundido por la University of Melbourne, el médico Grant Blashki describe esa incomodidad persistente como una respuesta lógica a un cambio acelerado que rediseña sistemas sociales y laborales sin que la mayoría sienta que participa en la decisión. Un dato clave ayuda a entenderlo: encuestas recientes muestran que el público general suele estar más preocupado por la inteligencia artificial que los propios expertos, con especial tensión alrededor del empleo y la conexión humana, mientras que la desinformación inquieta a ambos grupos.
Trabajo: cuando el miedo no es solo perder el sueldo, sino el lugar en el mundo
La pregunta “¿me va a quitar la IA el trabajo?” suena simple, pero por debajo se esconden miedos más íntimos: “¿seguiré siendo útil?”, “¿qué valdrá lo que sé hacer?”, “¿qué pasa con mi identidad si mi profesión cambia?”. La IA ya hace tareas que hasta hace poco parecían “humanas”: redacta textos, analiza datos, escribe código, resume reuniones, interpreta imágenes y atiende a clientes. No es ciencia ficción; es el día a día.
Las cifras alimentan la inquietud. El Fondo Monetario Internacional ha estimado que una parte significativa del empleo global se verá afectada por la automatización y la adopción de IA, con mayor exposición en economías avanzadas porque abunda el trabajo cognitivo. El World Economic Forum, en su Future of Jobs Report 2025, proyecta un fuerte “recambio” del mercado laboral hacia 2030: muchos puestos nuevos, muchos desplazados, crecimiento neto pero transición exigente. En la vida real, esa transición rara vez se siente como un gráfico ordenado: se siente como un barrio donde cierran dos comercios y abren otros dos con perfiles distintos.
Por eso, la ansiedad no siempre nace del desempleo inmediato, sino de la incertidumbre sobre el valor personal. Para muchas personas, el trabajo es salario, sí, pero también rutina, pertenencia, autoestima y relaciones. Si la IA cambia el tablero, el miedo no se limita a “menos ingresos”; toca algo más profundo: el sentido.
La “caja negra”: decisiones que te afectan sin explicación clara
Otra fuente potente de inquietud es la pérdida de control. Cada vez más sistemas usan modelos automatizados para orientar decisiones en ámbitos sensibles: selección de personal, crédito, seguros, ayudas sociales o priorización sanitaria. El temor aquí no es únicamente que el sistema se equivoque; es que se equivoque y nadie sepa explicarte por qué, o que no exista una vía real para impugnarlo. Es la versión moderna del “me lo dice el sistema”, solo que el sistema ahora parece aprender y transformarse por dentro.
La OCDE lleva años defendiendo principios de transparencia, responsabilidad y supervisión humana en el uso de IA. El problema es que, en la práctica, la carrera competitiva por desplegar tecnología puede empujar a relajar controles. Cuando se percibe que los “guardarraíles” van por detrás, la ansiedad sube: como conducir en una autopista recién asfaltada… sin señales, sin arcenes y con coches nuevos a distinta velocidad.
Desinformación y deepfakes: cuando la realidad parece un vídeo editable
Si antes internet ya tenía problemas con bulos, ahora el coste de fabricar contenidos falsos convincentes ha caído en picado. Imágenes, audio y vídeo sintéticos pueden sonar y verse “reales” sin exigir grandes conocimientos técnicos. Aquí el miedo no es abstracto: es práctico. ¿Cómo confías en una nota de voz? ¿Cómo verificas un vídeo viral que muestra a alguien diciendo algo grave?
Medios como The Guardian han descrito estafas con deepfakes funcionando a escala industrial, con herramientas accesibles a no expertos. En Australia, ABC News ha informado sobre anuncios falsos que suplantaban a un especialista en diabetes para promover suplementos sin evidencia y desalentar tratamientos basados en pruebas, un ejemplo claro de riesgo para la salud pública. Cuando la frontera entre lo auténtico y lo sintético se vuelve borrosa, se degrada la confianza en instituciones, expertos y conversación pública. Esa erosión se vive como una niebla constante: no sabes qué piso es firme y cuál es decorado.
Privacidad y vigilancia: datos que se convierten en un retrato más íntimo de lo que imaginas
La privacidad lleva años cediendo terreno, pero la IA amplifica el fenómeno porque transforma datos sueltos en inferencias potentes. No es solo “saben dónde estoy”; es “pueden estimar hábitos, vulnerabilidades, estado de ánimo, probabilidad de compra o de impago” combinando señales conductuales, biométricas o de ubicación. Estudios del Pew Research Center reflejan preocupaciones persistentes sobre uso indebido de datos, suplantación y pérdida de privacidad ligada a sistemas de IA.
Esta inquietud no se dirige únicamente al Estado. También apunta a prácticas corporativas: perfiles, persuasión segmentada, asimetrías de información. En términos cotidianos: la sensación de que alguien lee tu diario, no porque le hayas entregado un cuaderno, sino porque fue recopilando frases sueltas de tus conversaciones en voz alta.
Agentes autónomos: el susto no viene del apocalipsis, sino del “se lanzó demasiado pronto”
Las narrativas apocalípticas sobre IA suelen aparecer en titulares, pero para la mayoría el miedo real tiene menos de robots dominando el planeta y más de chapuzas a gran escala: fallos de seguridad, despliegues prematuros, responsabilidad difusa. Un ejemplo que ha circulado por su rareza es Moltbook, una plataforma promocionada como red social para agentes de IA. Reuters reportó una vulnerabilidad importante que expuso mensajes privados, miles de correos y más de un millón de credenciales, una señal de gobernanza y seguridad insuficientes.
Este tipo de episodios alimenta una idea concreta: si algo tan básico como proteger datos falla, ¿cómo confiar en sistemas cada vez más presentes? Es el equivalente digital a ver que el ascensor del edificio no pasa revisiones y aun así lo dejan funcionando.
Concentración de poder: quién manda cuando la tecnología se vuelve infraestructura
Una capa menos visible de la ansiedad por la IA tiene que ver con la distribución de poder. Si pocas empresas y pocos países concentran capacidad de cómputo, modelos y datos, la preocupación se desplaza hacia la dependencia: ¿quién define las reglas, los precios, los límites, los estándares? La OCDE ha advertido que los mercados de IA generativa pueden tender a dinámicas de “el ganador se lo lleva casi todo”, reforzando poder de mercado y potencialmente aumentando desigualdad.
Cuando una tecnología se vuelve “infraestructura” —como la electricidad o internet— la pregunta natural es política y social: quién se beneficia, quién asume los riesgos y qué mecanismos de rendición de cuentas existen.
Educación: el examen que ya no mide lo que creíamos
En escuelas y universidades, la ansiedad se vuelve muy tangible. No se trata solo de trampas; se trata de qué significa aprender si una herramienta puede producir respuestas impecables en segundos. Un artículo en The Australian citaba un experimento en el que una proporción muy alta de trabajos estudiantiles mostraba probabilidad elevada de haber sido generados con IA, señalando un desafío directo para la evaluación.
La UNESCO ha advertido que la IA generativa avanza más rápido que la preparación institucional, con preocupaciones sobre equidad, privacidad y el futuro de la educación. En el fondo, el miedo aquí es casi filosófico, pero se vive en lo cotidiano: si el atajo existe, ¿cómo cuidamos el músculo del pensamiento crítico? Es como tener calculadora desde el primer día: útil, sí, pero peligrosa si nunca aprendiste a estimar y detectar errores.
Autenticidad y sentido: cuando lo “hecho por humanos” necesita volver a notarse
Hay una inquietud más silenciosa: la de la autenticidad. Si textos, imágenes y conversaciones pueden generarse en masa, algunas personas no temen tanto ser reemplazadas como ser diluidas. ¿Se seguirá valorando el esfuerzo? ¿Se distinguirá una obra humana de una producción automática? Investigaciones del Pew Research Center recogen esa preocupación por la posible reducción de interacción humana y la devaluación de habilidades creativas, incluso entre quienes reconocen beneficios de la IA.
Es un miedo parecido al de recibir un mensaje cariñoso y preguntarte, por primera vez, si lo escribió esa persona o si lo “encargó”. La emoción cambia cuando dudas del origen.
Qué suele ayudar cuando la inquietud aparece
La ansiedad se alimenta de lo difuso. Cuando “IA” es un monstruo sin forma, ocupa toda la habitación. Cuando lo conviertes en preguntas concretas, empieza a caber en una caja manejable. En la práctica, muchas personas mejoran al identificar qué parte les inquieta: si es el empleo, si es la desinformación, si es la privacidad, si son decisiones automatizadas imposibles de reclamar, si es educación o identidad.
También ayuda revisar la dieta informativa. La alarma permanente desgasta; los titulares grandilocuentes suelen ser gasolina para la ansiedad. Elegir pocas fuentes fiables, desconfiar de capturas virales sin contexto y verificar antes de compartir reduce ruido. Desarrollar alfabetización en IA no significa aprender a programar, sino entender cómo se usa en tu sector, dónde falla y cómo comprobar resultados, como quien aprende a leer etiquetas en el supermercado para no comprar por impulso.
La tercera pieza es pedir guardarraíles. La ansiedad crece cuando no hay responsables identificables. Preguntar quién responde ante un error, qué mecanismos de apelación existen, cómo se auditan modelos, qué datos se usan y bajo qué políticas no es paranoia: es ciudadanía digital. Regulación, estándares de transparencia y prácticas internas claras en empresas y escuelas no eliminan los riesgos, pero reducen esa sensación de estar viajando en un coche sin frenos ni volante.
