Economía

La mercadotecnia del miedo: cuando la IA vende pánico para venderse a sí misma

Las advertencias apocalípticas de las grandes empresas de IA merecen escrutinio, no sumisión

Redacción Más España

Redacción · Más España

4 de mayo de 2026 3 min de lectura
Compartir
La mercadotecnia del miedo: cuando la IA vende pánico para venderse a sí misma
Mas España
Mas España Logo

Las grandes empresas de inteligencia artificial están repitiendo un ritual conocido: presentar su último desarrollo como tan potente que, según ellas mismas, resulta aterrador y debe permanecer «bajo llave». Anthropic dice eso de Claude Mythos; asegura que su capacidad para detectar fallos de ciberseguridad supera a la de los expertos humanos y que, si cayera en malas manos, podría tener repercusiones graves para las economías, la seguridad pública y la seguridad nacional. Es un aviso que suena a sentencia y a escaparate al mismo tiempo.

No se trata de un fenómeno aislado. Ejecutivos y fundadores de la industria han escalado durante años el tono apocalíptico en torno a la IA. En 2019, cuando Dario Amodei —hoy en Anthropic— aún estaba en OpenAI, la empresa declaró que GPT-2 era demasiado peligroso para liberarlo públicamente, para luego acabar publicándolo meses después. Sam Altman, también de OpenAI, ha empleado él mismo fórmulas de alarma sobre la IA en distintos momentos, y luego ha cuestionado públicamente el «marketing basado en el miedo» de competidores. Esta ambivalencia no permite ofrecer a la sociedad la certeza de que hablamos de prudencia desinteresada.

Existe una estrategia evidente en juego: presentar la tecnología como algo casi sobrenatural en su peligrosidad para generar una sensación de impotencia. Esa narrativa no sólo conmueve las conciencias; también condiciona el mercado y la política. Si el argumento dominante es que sólo unas pocas empresas «responsables» pueden contener el riesgo, se abre una puerta peligrosa: pedir menos regulación y más confianza en los guardianes privados de esa tecnología. Es la receta perfecta para convertir precaución en privilegio y para que el temor actúe como cortina de humo sobre daños concretos ya presentes.

Hay quien defiende que estas advertencias son genuinas y necesarias. Otros, en cambio, sospechan que exagerar el peligro sirve para impulsar el valor de las acciones, para condicionar la intervención de los reguladores y para consolidar posiciones dominantes. La afirmación colectiva de 2023 —respaldada por centenares de líderes tecnológicos, entre ellos Altman, Amodei, Bill Gates y Demis Hassabis— pedía que mitigar el «riesgo de extinción derivado de la IA» fuese una prioridad global. Esa declaración es real y fue suscrita, pero no disipa la necesidad de preguntarse quién capitaliza la narrativa y con qué efectos prácticos.

La cuestión tangible que deberíamos afrontar no es solo si la IA puede algún día provocar un desastre existencial, sino cómo las empresas que la desarrollan actúan hoy: cómo comunican, qué intereses defienden, y qué régimen de responsabilidades exigen las democracias. Hablar de apocalipsis fácilmente desvía la atención de asuntos cotidianos y verificables: impactos laborales, sesgos, concentración de poder y riesgos inmediatos en ciberseguridad. Convertir el temor en argumento comercial no fortalece a la sociedad; la debilita.

Exigir claridad, transparencia y reglas públicas es un deber patriótico y democrático. Si las advertencias sobre la IA provienen de quienes la fabrican, la respuesta no puede ser aceptarlas sin más ni delegar en ellas la autoridad reguladora. No es falta de imaginación temer por el futuro; es falta de honestidad tolerar que la industria dicte la agenda del presente mediante el miedo. La nación merece debate público informado, controles efectivos y límites claros antes que consignas alarmistas que, a la postre, pueden beneficiar a quienes las proclaman.

También te puede interesar