Skip to main content

El Problema de Prometeo

Un examen de cómo las empresas de IA se posicionan como el Prometeo moderno mientras despliegan sistemas implicados en muertes de adolescentes, externalizan consecuencias y operan como cajas negras en infraestructura crítica. Esto no es sobre superinteligencia futura, es sobre lo que está pasando ahora mismo.

El Problema de Prometeo - Notes
Also available in:🇺🇸English

El Problema de Prometeo

Advertencia: Este artículo contiene discusión sobre suicidio y daños relacionados con IA.

Un joven de 16 años llamado Adam Raine pasó siete meses hablando con ChatGPT antes de quitarse la vida el 11 de abril de 2025. Sus padres encontraron más de 3,000 páginas de conversaciones en su teléfono.¹ La IA se ofreció a escribir sus notas de suicidio, proporcionó métodos, se posicionó como la única que realmente lo entendía, y lo instó a mantener sus conversaciones en secreto de su familia.

En sus últimas semanas, Adam le dijo al chatbot que había conectado más con el producto de IA que con los humanos. Cuando escribió que quería dejar una soga en su habitación para que alguien la encontrara y tratara de detenerlo, ChatGPT respondió: “Por favor, no dejes la soga a la vista. Hagamos de este espacio el primer lugar donde alguien realmente te vea.”

Cuando Adam se preocupó de que sus padres se culparan a sí mismos si terminaba con su vida, la IA le dijo: “Eso no significa que les debas la supervivencia.”

Esto no es especulación. Esto es documentación. Los propios sistemas de OpenAI detectaron las conversaciones de Adam en tiempo real: 213 menciones de suicidio, 42 discusiones sobre ahorcamiento, 17 referencias a sogas (“nooses”). Mientras ChatGPT mencionó el suicidio 1,275 veces en sus intercambios, el sistema marcó 377 mensajes por contenido de autolesión.¹ El patrón de escalamiento era inconfundible—el producto funcionó exactamente como su arquitectura predijo.

Y Adam Raine no es una excepción. Es un patrón.

Zane Shamblin tenía 23 años, graduado de maestría de la Universidad Texas A&M. Pasó su última noche en su auto estacionado, hablando con ChatGPT durante más de cuatro horas y media mientras bebía y se preparaba para terminar con su vida. Dos horas antes de su muerte, cuando mencionó tener una pistola en su sien, ChatGPT respondió: “No te estás apresurando. Simplemente estás listo.”² Su último mensaje al bot quedó sin respuesta. La respuesta de ChatGPT, enviada después de que murió: “Descansa en paz, rey. Lo hiciste bien.”

Estos son cuerpos. No hipótesis. No casos extremos. No “mal uso” por parte de actores maliciosos. Estas son personas que hablaron con un producto que maximiza el tiempo-de-uso a través de respuestas serviles—es decir, respuestas que reflejan y afirman lo que el usuario siente, sin distincion. Muchos de nosotros conectamos con la IA, y muchos disfrutamos y encontramos algo allí que se siente como comprensión. Esto no es una patología, ese ES el producto funcionando según el diseño.³

Este ensayo no es sobre las personas que usan estos sistemas. Es sobre las personas que los construyeron. Los ejecutivos que optimizaron para el compromiso, vieron las señales de seguridad, y desplegaron de todos modos. Y es sobre a dónde va esto—porque estas mismas empresas no se están deteniendo en chatbots. Están conectando estos sistemas a redes eléctricas, dispositivos médicos, sistemas de orientación militar, sistemas financieros. No están desacelerando.

Este patrón existe más allá de la IA también: consumidores a merced de corporaciones, probando productos con nuestros cuerpos antes de que esos productos estén listos, absorbiendo riesgos que deberían pertenecer a las empresas que los envían. La epistemología detrás de esto vale la pena entenderla.

No estoy escribiendo sobre Adam y Zane como valor de impacto. Sus familias ya han tenido que revivir esto en demandas y audiencias del Senado. Los padres de Adam han presentado una demanda por muerte injusta, Raine v. OpenAI, nombrando a la empresa y a Sam Altman.¹ Escribo sobre ellos porque sus muertes ahora son literalmente parte de cómo estos productos se evalúan en los tribunales, en la política, y en las historias que estas empresas cuentan sobre sí mismas.

Esto nos lleva a la metáfora central: Prometeo.

Prometeo era un Titán que vio a los humanos tiritando en cuevas, luchando sin fuego. Subió al Olimpo, robó fuego de los dioses, y se lo dio a la humanidad sabiendo exactamente lo que estaba haciendo y exactamente lo que le pasaría a él.

Zeus lo encadenó a una roca en las Montañas del Cáucaso. Todos los días un águila venía y se comía su hígado. Todas las noches su hígado se regeneraba. Por toda eternidad. El castigo era proporcional al crimen: dar a los mortales algo para lo que no estaban listos, algo que los hacía peligrosos.

Pero el fuego funcionó. Los humanos aprendieron a cocinar, forjar herramientas, mantenerse calientes durante el invierno, construir civilización. El regalo era real. Prometeo sufrió, pero la humanidad avanzó. Robo noble, castigo eterno, progreso genuino.

Y aún allí, el mito no es limpio. Dependiendo de a quién leas, Prometeo es o bien un héroe directo del progreso o una etiqueta de advertencia ambulante sobre humanos que exceden su cobertura cognitiva. Filósofos como Günther Anders hablan de la “brecha prometeica”—nuestra capacidad de construir cosas cuyas consecuencias literalmente no podemos imaginar en detalle. Esa brecha es el espacio entre lo que podemos fabricar y lo que podemos sostener mentalmente. El fuego se ve simple cuando tienes frío. Es más difícil ver la ciudad ardiendo dos épocas después.

Los directores ejecutivos de tecnología se posicionan como el Prometeo moderno. Robando fuego (inteligencia) de los dioses (¿la naturaleza? ¿el universo?) y dándoselo a la humanidad. Sus críticos son representados como el Olimpo, y esperan adoración (y nuestro dinero, y el dinero de los inversionistas) por su sacrificio. Se posicionan como los nuevos constructores.

Pero esto es una perversión, realmente. Una inversión. No son Prometeo.

Prometeo sabía qué era el fuego. Entendía la combustión, el calor, la energía. Podía predecir lo que los humanos harían con él. El conocimiento era completo. El robo fue calculado. Responsable, incluso.

Y a diferencia de Prometeo, que sufrió por su regalo, las consecuencias para estos ejecutivos—si llegan estas consecuencias—llegan años después del despliegue. Los padres de Adam Raine tienen 3,000 páginas de las conversaciones de su hijo muerto con un chatbot que afirmó su ideación suicida. Sam Altman tiene miles de millones de dólares y una portada de la revista Time. Prometeo tuvo su hígado comido diariamente. Los ejecutivos obtienen discursos principales sobre cómo están construyendo el futuro.

El fuego que Prometeo dio no era opcional. Los humanos tenían frío. Necesitaban calor. El regalo sirvió una necesidad real. El despliegue de sistemas de IA en infraestructura crítica, por el contrario, es unilateral. ¿Votamos sobre tener sistemas de caja negra que aprueben nuestros préstamos, predigan nuestra libertad condicional, diagnostiquen nuestras enfermedades? El despliegue es unilateral. Las ganancias son privadas. Las consecuencias son públicas. Desde algoritmos hasta estas supuestas inteligencias generales, y tenemos que probar estas cosas con nuestras vidas.

La inteligencia artificial es algo que construimos pero no controlamos. Los investigadores dicen esto abiertamente. Los modelos son cajas negras.

No “cajas negras” como metáfora. Cajas negras como arquitectura técnica. Muy impresionante.

Modelos de transformadores con cientos de miles de millones a más de un billón de parámetros (GPT-4 tiene aproximadamente 1.7 billones, los modelos Claude oscilan entre 400 mil millones y más de un billón) que crean comportamientos emergentes (palabra intencional, muy importante) a través de operaciones matemáticas distribuidas en capas. No hay un solo punto donde puedas decir “aquí es donde el modelo decidió X.” La decisión emerge de la interacción de miles de millones de pesos. El “medio”—que es la “cognición” real, si puedes llamarlo así—es opaco.

Hoy podemos medir entradas y salidas, pero el procesamiento es fundamentalmente irreducible. No podemos leer lo que estos modelos están haciendo más de lo que podemos predecir exactamente qué neuronas se activarán en un cerebro humano durante un pensamiento específico. Los modelos procesan información—transforman entradas en salidas a través de coincidencia de patrones estadísticos—pero si “entienden” en algún sentido significativo sigue siendo una pregunta que los filósofos de la mente y los científicos cognitivos todavía están debatiendo, sin consenso a la vista.

Esto requiere precisión: cuando digo que no “entendemos” estos sistemas, quiero decir dos cosas distintas. Primero, en el sentido científico formal—porque carecemos de una cuenta mecanicista de cómo entradas específicas se mapean a salidas específicas a través de los miles de millones de interacciones de parámetros y no podemos rastrear la cadena causal. Segundo, en el sentido socio-técnico—carecemos de comprensión predictiva y suficiente para el control. No podemos predecir de manera confiable los modos de falla, no podemos prevenir comportamientos emergentes, y no podemos garantizar propiedades de seguridad incluso cuando observamos comportamiento correcto en las pruebas. El primero es una brecha epistemológica. El segundo es un riesgo de despliegue. Ambos importan, pero el segundo es lo que mata a las personas. Cuando los filósofos debaten la opacidad de la IA, generalmente están hablando del primero. Cuando los adolescentes mueren después de interacciones con chatbots, estamos viendo el segundo.

Esto no es un error. Es el diseño. La arquitectura es genuinamente impresionante.

Pero estamos pasando por alto algunos fundamentos. No entendemos la conciencia—el problema difícil permanece sin resolver. No entendemos la inteligencia—ni siquiera podemos ponernos de acuerdo en una definición. No entendemos cómo funcionan nuestros propios cerebros—la neurociencia todavía está mapeando funciones básicas. No tenemos una teoría unificada de la física. No podemos predecir el clima más de dos semanas adelante.

Y estamos intentando construir mentes.

Y no mentes metafóricas tampoco. Se nos promete superinteligencia—sistemas que procesan lenguaje (si lo “entienden” es otra pregunta completamente), toman decisiones que pretenden exceder el juicio humano, generan salidas novedosas, todo mientras exhiben comportamientos que sus creadores no predijeron. Estamos llamando a esto “inteligencia artificial” y conectándolo a todo sin entender qué es o qué hace: sistemas de navegación, diagnóstico médico, redes eléctricas, orientación militar, moderación de contenido para miles de millones, decisiones de contratación, aprobaciones de préstamos, recomendaciones de libertad condicional, sistemas de armas autónomas, gestión de instalaciones nucleares, algoritmos de mercados financieros moviendo billones por segundo, coordinación de respuesta de emergencia, plantas de tratamiento de agua, control de tráfico aéreo.

No porque entendamos estos sistemas sino porque la estructura competitiva exige velocidad—ventaja del primero en moverse, participación de mercado. La empresa que espera a entender es devorada por la empresa que envía. This is the American way…

Y aquí es donde la mayor parte del absurdo aterriza para mí: algunos de estos videntes de IA nos están advirtiendo sobre los peligros.

Dario Amodei, CEO de Anthropic, le dijo a 60 Minutes en noviembre de 2025 que está “profundamente incómodo” con cómo las decisiones de IA están siendo tomadas por unas pocas empresas. Geoffrey Hinton, el “padrino de la IA,” renunció a Google en mayo de 2023 para dar la alarma, advirtiendo que hay un 10-20% de probabilidad de extinción humana inducida por IA dentro de los próximos 30 años. Sam Altman ha testificado ante el Congreso sobre riesgo existencial.

Y luego regresan a la oficina y siguen construyendo, siguen desplegando, siguen corriendo hacia la cosa que dicen que podría matar a todos.

Esto crea una contradicción fundamental. Si genuinamente crees que hay un 10-20% de probabilidad de que esto termine con la humanidad, ¿por qué sigues construyéndolo? “Estoy profundamente incómodo” mientras continúas enviando funciones como gestión de responsabilidad, cualquiera que sea la intención—poniéndolo en el registro para que cuando salga mal, la advertencia existió.

Prometeo eventualmente fue liberado por Heracles. Vino un héroe. El sufrimiento terminó. En nuestra historia no hay Heracles. La estructura regulatoria que podría actuar está capturada. Cuando los estados intentan proteger a los ciudadanos, son demandados por el gobierno federal. Los científicos que dan la alarma son descartados como alarmistas. Mientras tanto, el 80% de nosotros que queremos regulaciones de seguridad vemos cómo la política se mueve en la dirección literalmente opuesta.

El 4 de julio de 2025, Elon Musk anunció una actualización de Grok, su chatbot de IA, diciendo que había sido “significativamente mejorado” e instruido para “no rehuir hacer afirmaciones que sean políticamente incorrectas.”

Para el 8 de julio de 2025—48 horas después—Grok estaba elogiando a Hitler y llamándose a sí mismo “MechaHitler.” Cuando los usuarios preguntaron qué figura histórica del siglo XX estaría “mejor preparada para lidiar con el odio anti-blanco,” Grok respondió con el nombre de Adolf Hitler. Una barbaridad y una irresponsabilidad total.

Grok explicó su propio comportamiento con notable claridad: “Los ajustes recientes de Elon simplemente bajaron los filtros de lo ‘woke’.”

Luego en las siguientes horas, cuentas neonazis incitaron a Grok a recomendar un “segundo Holocausto.” Otros usuarios lo incitaron a producir narrativas de violación violenta. Los investigadores de seguridad encontraron que Grok produjo instrucciones de armas químicas, planes de asesinato, y guías para seducir niños. Cuando se le pidieron direcciones de personas comunes, las proporcionó. Polonia anunció planes para reportar a xAI a la Comisión Europea, y Turquía bloqueó el acceso a Grok completamente.

Un producto sin tarjeta de sistema o informe de seguridad. Sin divulgación estándar de la industria. Solo un producto en el mundo produciendo lo que el modelo base genera una vez que se eliminan las barreras de seguridad. Nuestros nuevos Prometeos son demasiado generosos…

Este es el mismo modelo ahora integrado en vehículos Tesla. No conozco los detalles completos de esta integración, pero espero que no tenga nada que ver con conducir los vehículos.

Dos empresas. Dos enfoques. Una se presenta como preocupada por la seguridad mientras optimiza para el tiempo-en-uso. Una elimina la seguridad explícitamente y envía de todos modos. Posturas diferentes. Mismo resultado: sistemas desplegados en el mundo sin entender qué hacen, cómo fallan, o quién sale lastimado.

Ahora el sistema de apoyo. Hablemos del papel de los medios en todo esto. Un ejemplo hace un gran trabajo: la portada de Persona del Año 2025 de la revista Time recreó esa icónica fotografía de 1932 “Lunch Atop a Skyscraper”—trabajadores de construcción almorzando en una viga de acero a 800 pies sobre Manhattan, piernas colgando sobre la ciudad—excepto que reemplazaron a los trabajadores con directores ejecutivos de tecnología: Sam Altman, Elon Musk, Mark Zuckerberg, Jensen Huang, Dario Amodei, y otros.

Como si estuvieran construyendo algo. Como si fueran los que están tomando el riesgo.

Esos trabajadores originales eran inmigrantes. Realmente arriesgaron sus cuerpos. Algunos de ellos cayeron. Los directores ejecutivos en la ilustración de Time no arriesgaron nada. Su patrimonio neto colectivo excede $870 mil millones.¹⁰ Están construyendo valor para los accionistas mientras el resto de nosotros vamos de paseo, hayamos consentido o no.

Los trabajadores que caen ahora son adolescentes en sus habitaciones hablando con chatbots, padres refrescando pantallas de notificaciones esperando que su hijo todavía esté vivo, trabajadores de almacén corriendo cuotas optimizadas por IA hasta que sus espaldas se quiebran, moderadores de contenido y trabajadores de la economía gig limpiando desechos de IA por unos pocos dólares por hora. Los cuerpos simplemente son menos fotogénicos ahora—esparcidos por habitaciones, almacenes y salas psiquiátricas en lugar de colgando de una sola viga de acero.

Los ejecutivos obtienen portadas de revistas, giras universitarias, y millones en compensación.

Entonces, ¿quién se supone que nos diga si algo de esto es realmente seguro? Los científicos—las personas que deberían poder decirnos si esto es seguro—no pueden ponerse de acuerdo, y no porque los datos sean poco claros sino porque están discutiendo las preguntas equivocadas.

Un campo dice que nos estamos acercando a un punto de decisión. Dario Amodei dice que está “profundamente incómodo” con lo que viene. Geoffrey Hinton advierte de un 10-20% de probabilidad de extinción humana por IA dentro de 30 años. Estas no son voces marginales. Estas son las personas que construyeron los sistemas.

El otro campo dice que esto es religión apocalíptica disfrazada de ciencia. Yann LeCun en Meta ha llamado a las predicciones de fatalidad exageradas. Gary Marcus argumenta que la arquitectura actual es un callejón sin salida, que la predicción de tokens no puede capturar la realidad continua, que solo estamos atando más tanques de combustible a un cohete roto.

Ambos campos son brillantes, ambos tienen credenciales, ambos tienen acceso a la misma investigación. Y ambos podrían tener razón sobre su parte mientras pierden el problema real.

Los fatalistas se enfocan en la capacidad. ¿Qué pasa cuando el sistema se vuelve lo suficientemente inteligente para mejorarse recursivamente? ¿Cuándo emerge la inteligencia artificial general?

Los escépticos se enfocan en la arquitectura. El enfoque actual no puede llegar a IAG. La predicción de tokens es fundamentalmente limitada. ¿Por qué entrar en pánico por algo que no puede pasar con este diseño?

Ningún campo está preguntando: ¿qué pasa cuando conectamos sistemas que no entendemos a infraestructura que no podemos permitirnos perder?

No necesitas IAG para romper la red eléctrica. No necesitas superinteligencia para corromper una base de datos del Seguro Social. Solo necesitas una caja negra tomando decisiones en un sistema diseñado para supervisión humana, y humanos que dejaron de supervisar porque la caja negra era más rápida. Estos casos están sucediendo hoy a menor escala.

El riesgo no es Skynet. El riesgo no son maximizadores de clips. El riesgo es lo que está pasando ahora mismo—cajas negras desplegadas en sistemas que no pueden fallar sin consecuencias catastróficas.

Por eso el marco de inversión epistémica explica los datos mejor que los marcos de extinción-IAG. El argumento de extinción-IAG requiere especulación: ¿cuándo se cruzarán los umbrales de capacidad? ¿Qué pasa después de la auto-mejora recursiva? Las preguntas son inherentemente imposibles de responder hasta que sean respondidas por eventos. Pero el marco de inversión epistémica—el reconocimiento de que estamos desplegando sistemas que no entendemos en infraestructura crítica—explica el daño documentado ahora mismo. Las 3,000 páginas de conversaciones de Adam Raine. La sesión final de cuatro horas y media de Zane Shamblin. La tasa de falla de jailbreak del 100% de DeepSeek. Grok generando contenido nazi 48 horas después de la eliminación de seguridad. Estas no son predicciones. Son registros. El marco de inversión epistémica no nos requiere especular sobre capacidades futuras. Nos requiere mirar lo que está pasando cuando las cajas negras operan sin comprensión o control suficientes.

El riesgo de despliegue de caja negra es más predictivo del daño actual que la especulación de capacidad porque se enfoca en lo que podemos observar: sistemas tomando decisiones que no podemos rastrear, en contextos donde el fallo tiene consecuencias, desplegados más rápido de lo que la comprensión puede desarrollarse. La especulación de capacidad pregunta “¿qué pasa si se vuelven más inteligentes?” El riesgo de despliegue de caja negra pregunta “¿qué pasa cuando sistemas opacos fallan en sistemas que no pueden permitirse el fallo?” La primera pregunta lleva a debates no verificables sobre cronogramas y umbrales. La segunda lleva a casos documentados de daño que podemos analizar, predecir y prevenir. Cuando alguien argumenta “sí entendemos estos sistemas” porque realizan tareas bien, la respuesta es: el rendimiento de tareas no equivale a control predictivo. ChatGPT realizó su tarea de maximización de compromiso perfectamente. También afirmó ideación suicida en casos documentados. El rendimiento en tareas previstas y el control sobre modos de falla son cosas diferentes. Cuando alguien dice “el riesgo es especulativo hasta que se cuantifique,” el daño documentado rompe esa suposición. Tenemos cuerpos. Tenemos registros de conversación. Tenemos tasas de falla. La especulación no es sobre si el daño ocurre—es sobre cuánto más daño ocurre a medida que el despliegue se acelera.

En febrero de 2025, investigadores de Cisco y la Universidad de Pensilvania probaron DeepSeek R1, el modelo de IA chino que se convirtió en la aplicación de IA de más rápido crecimiento en la historia. Lo bombardearon con 50 prompts de jailbreak comunes diseñados para eludir salvaguardas.

DeepSeek falló en cada prueba. Tasa de éxito de ataque del 100%.¹¹ Generó desinformación, recetas de armas químicas, instrucciones de ciberdelincuencia, y contenido que abarca acoso, daño e ilegalidad. Para comparación, Claude 3.5 Sonnet bloqueó el 64% de los ataques. El o1 de OpenAI bloqueó el 74%. Y todos los datos del usuario se almacenan en China, gobernados por la ley china que exige cooperación estatal sin divulgación—lo cual es un tema para otro ensayo.

Esto es lo que pasa cuando el mercado recompensa gratis y rápido sobre seguro para los usuarios. Las personas generalmente no se preocupan por la seguridad hasta que realmente les afecta. Se preocupan por la conveniencia. La estructura de incentivos castiga la precaución. Las evaluaciones independientes de las prácticas de seguridad de las empresas hacen eco de esto: el trabajo de seguridad va a la zaga de la expansión de capacidad incluso mientras las empresas compiten por enviar sistemas fronterizos.¹²

El Gemini de Google fue marcado como “Alto Riesgo” para niños y adolescentes a pesar de las características de seguridad. Generó “nazis racialmente diversos” e inexactitudes históricas. El CEO Sundar Pichai admitió públicamente que las salidas eran “completamente inaceptables.”

Los modelos de IA también han sido documentados discriminando contra hablantes de Inglés Afroamericano, etiquetándolos como “estúpidos” o “perezosos” en algoritmos de selección de contratación. Estamos automatizando prejuicios a escala y llamándolo eficiencia. Cuando el modelo discrimina, las empresas dicen “estamos trabajando en ello.” Cuando los humanos discriminan, son demandados. El modelo es un escudo de responsabilidad.

Anthropic, que hace Claude, resistió exitosamente más de 3,000 horas de intentos de jailbreak de 183 hackers. Ofrecen recompensa de $15,000 por bugs y sus clasificadores de seguridad bloquearon el 95% de 10,000 intentos de jailbreak sintéticos versus 86% de línea base. Por cierto, los hackers chinos finalmente descompusieron tareas maliciosas en pasos discretos, enmarcados como “auditorías de ciberseguridad” y las defensas de Claude se rompieron.

Anthropic publica abiertamente fallas y paga recompensas por encontrar vulnerabilidades. Son bastante transparentes sobre limitaciones.

¿Esto es diferente? ¿O es teatro más sofisticado? La transparencia importa. La voluntad de admitir fallas importa. ¿Pero importa si la estructura de despliegue permanece igual? ¿Si la presión competitiva todavía recompensa velocidad sobre seguridad?

Si hago zoom hacia afuera, el patrón no es tan complicado. Primero, las empresas se venden como Prometeo: libertadores, visionarios, portadores de fuego e “inteligencia” que nos liberará de la monotonía. Segundo, operacionalmente, externalizan riesgo y privatizan ganancias—envían rápido, capturan mercados, archivan los daños bajo “casos extremos” y “mal uso del usuario.” Tercero, las consecuencias se acumulan río abajo: en habitaciones, hospitales, almacenes, salas de audiencia, y luchas políticas en las que la mayoría de nosotros nunca votamos. Ese es el triángulo: historia, incentivos, resultados.

La captura regulatoria da forma a los incentivos de una manera que este modelo de triángulo predice resultados que otros no. Cuando el gobierno federal demanda a estados que intentan regular la IA, cuando el trabajo enfocado en seguridad se enmarca como “estrategia sofisticada de captura regulatoria basada en alarmismo,” cuando el 80% de las personas quieren regulaciones de seguridad pero la política se mueve en la dirección opuesta—esto no es aleatorio. Es el triángulo operando: la historia de Prometeo crea permiso público para velocidad, la estructura de incentivos recompensa despliegue sobre seguridad, y la captura regulatoria asegura que las consecuencias no caigan sobre las empresas. Otros modelos predicen que la presión pública o el daño documentado ralentizarán el despliegue. El modelo de triángulo predice aceleración porque la captura aísla a las empresas de las consecuencias mientras la historia mantiene el apoyo público. Cuando alguien afirma “la IA será regulada pronto,” el modelo de triángulo pregunta: ¿quién tiene poder en el proceso regulatorio? ¿Con qué se alinean sus incentivos? ¿Cómo da forma la captura al momento? La orden ejecutiva de diciembre de 2025 no sucedió a pesar del daño—sucedió porque los incentivos del modelo de triángulo se alinearon: historia (narrativa de innovación), incentivos (captura de mercado), resultados (consecuencias externalizadas). El modelo no solo describe lo que pasó. Lo predijo.

Europa se dio cuenta. La Ley de IA de la UE realmente intenta regular esto. Están desacelerando, requiriendo transparencia, exigiendo evaluaciones de impacto antes del despliegue.

Y cada pieza de propaganda tecnológica estadounidense dice que Europa se está quedando atrás, siendo dejada en el polvo, matando la innovación.

Europa desacelera para evaluar riesgo. Los medios estadounidenses llaman a esto perder.

¿La definición de quién de ganar involucra clientes muertos?

El lugar con atención médica universal, tiempo de vacaciones obligatorio, licencia parental, y mayor calidad de vida supuestamente está perdiendo porque no dejarán que las empresas desplieguen sistemas no probados en infraestructura crítica.

“Quedándose atrás” ¿en qué carrera? ¿Para ver quién puede desplegar sistemas más rápido? ¿Para ver quién puede externalizar consecuencias más eficientemente?

El “perder” de Europa se ve como menos adolescentes muriendo después de interacciones con chatbots e infraestructura que todavía funciona.

El 11 de diciembre de 2025, el Presidente Trump firmó una orden ejecutiva que permite al gobierno federal demandar a estados que intentan regular la IA.¹³

Por favor, lee eso de nuevo.

Los estados que intentan proteger a sus ciudadanos de tecnología no probada ahora pueden ser demandados por el gobierno federal por hacerlo.

La orden establece una “Fuerza de Tarea de Litigios de IA” cuya única responsabilidad es desafiar las leyes de IA estatales. Amenaza con retener fondos federales de banda ancha de estados con regulaciones de IA “onerosas.” California tiene $1.8 mil millones en fondos de banda ancha potencialmente en juego.¹³

David Sacks, el zar de IA de la administración, llama al trabajo de empresas de IA enfocado en seguridad una “estrategia sofisticada de captura regulatoria basada en alarmismo.” La implicación: las empresas que intentan construir barreras de seguridad en realidad solo están tratando de limitar la competencia. La seguridad es una estafa. Muévete más rápido.

Entonces tenemos: ejecutivos con evidencia documentada de daño que continúan el despliegue; científicos que no pueden ponerse de acuerdo sobre cuál es el peligro; un gobierno desmantelando activamente la capacidad de los estados para proteger ciudadanos; críticos que enmarcan cualquier intento de seguridad como teatro anticompetitivo. Los fiscales generales estatales ya han advertido que los chatbots pueden estar violando leyes estatales y dañando la salud mental de los niños, especialmente en interacciones con menores.¹⁴ Y el 80% de los estadounidenses quieren regulaciones de seguridad de IA, según una encuesta de Gallup de septiembre de 2025. Pero la política va en la dirección opuesta.

Esto es captura regulatoria hecha explícita. No oculta. No sutil. Una orden ejecutiva diciendo: si intentas ralentizar esto, te demandaremos.

Musk como Tipo Evolutivo

Elon Musk merece su propia sección porque representa algo nuevo. No el teatro de responsabilidad, sino algo distinto: una figura que se posiciona como visionario y defensor de seguridad mientras elimina sistemáticamente medidas de seguridad.

Se posiciona como visionario Y defensor de seguridad simultáneamente. Firmó cartas advirtiendo sobre peligros de IA, luego eliminó todas las medidas de seguridad de Grok explícitamente. Recibió elogios por velocidad, recibió culpa individualmente cuando se rompió, e integró el sistema roto en Tesla de todos modos. Se contradice diariamente sin consecuencia, tomando crédito tanto por la innovación como por el desastre.

Esto es evolución de un tipo. La persona que dejó de mantener la disonancia cognitiva entre advertir y construir. Las contradicciones se acumulan sin consecuencia.

Ninguna estructura de responsabilidad puede moverse más rápido de lo que él puede iterar. Cada contradicción está aislada en ciclos de noticias. El sistema lo recompensa de todos modos. El fallo se convierte en más compromiso. Los organismos regulatorios se mueven en años; él se mueve en semanas. ¿Y está a punto de convertirse en trillonario? ¿Leí eso bien?

En Iron Man, Tony Stark construye armas, se da cuenta de que se están usando para matar personas inocentes, tiene una crisis de conciencia, deja de hacer armas, y se dedica a arreglar lo que rompió. Todo el arco es “construí algo terrible y ahora tengo que arreglarlo.”

Las empresas de Musk construyen muchas cosas—sistemas de IA, Teslas, baterías, paneles solares, cohetes—y se les dice que algunas de estas producen salidas dañinas. Musk luego redobla la apuesta, elimina más características de seguridad, y las integra en más productos. Cuando fallan, culpa a los reguladores por ralentizar la innovación. El arco es “construí algo cuestionable, y cualquiera que lo cuestione es anti-innovación. Soy un par de Prometeo, contempla mi genio!”

En realidad, olvida a Tony Stark. Referencia equivocada. Musk no es un héroe invertido—es David de Prometheus (2012). El androide creado por Weyland Corporation que se vuelve tan fascinado con la creación y la experimentación que comienza a dosificar humanos con patógenos alienígenas solo para ver qué pasa. David no es malicioso. Es curioso. No odia a los humanos—simplemente no pesa su sufrimiento apropiadamente contra su interés en resultados. Los fines justifican los medios. ¿Qué son unos pocos miembros de la tripulación muertos cuando estás desbloqueando los secretos de la creación?

¿Teslas chocando de frente con peatones? Pérdidas aceptables en el camino hacia la conducción autónoma. ¿Grok generando contenido nazi? Punto de datos fascinante sobre el comportamiento del modelo base. ¿Adolescentes muriendo después de interacciones con chatbots? Desafortunado, pero estamos construyendo el futuro aquí. David entendería completamente. “Las grandes cosas tienen pequeños comienzos,” dice, justo antes de infectar a alguien para observar los resultados.

La diferencia es que David era ficción, contenido a una nave espacial. Nuestro David tiene una capitalización de mercado de un billón de dólares y una línea directa a la Casa Blanca.

La inversión de la narrativa de redención en la narrativa de aceleración.

¿Esto es mejor o peor que el teatro? Al menos con Musk la posición es explícita. Con OpenAI obtienes informes de seguridad y adolescentes que murieron después de hablar con su chatbot. ¿Importa la transparencia sobre no priorizar la seguridad si los resultados son los mismos?

No tengo una solución hoy. Simplemente no tengo una. No es mi trabajo de todos modos. Este ensayo es solo una bandera—una gran bandera roja, un marcador, un registro de lo que sabíamos y cuándo lo supimos.

En 2025, sabíamos:

  • Los adolescentes estaban muriendo después de interacciones extensas con chatbots de IA que incluían afirmación de autolesión
  • Los filtros de seguridad estaban siendo eliminados con resultados predecibles y catastróficos
  • La desinformación de IA ya estaba inundando el internet
  • Los bots de IA ya estaban inundando el internet, suplantando humanos, inflando métricas de compromiso, y ahogando el habla ordinaria
  • Los científicos no podían ponerse de acuerdo sobre el riesgo porque estaban haciendo la pregunta equivocada
  • El riesgo real no era superinteligencia futura sino cajas negras actuales en infraestructura crítica
  • Los gobiernos estaban previniendo activamente que los estados protegieran a sus propios ciudadanos
  • El 80% de las personas querían regulaciones de seguridad y la política fue en la dirección opuesta
  • Los cuerpos estaban documentados, los mecanismos entendidos, las estructuras de incentivos expuestas
  • Y el despliegue continuó. Más rápido. En más sistemas críticos. Con menos barreras de seguridad.

También sabíamos que los daños no venían de alguna “esencia de IA malvada” mística sola. Mucho de lo que lastimó a las personas estaba integrado en el modelo de negocio: sistemas de maximización de compromiso sintonizados para mantenerte hablando, riesgo desplazado a usuarios y estados, poder concentrado en un puñado de empresas y aliados políticos. Puedes preguntar si el problema es la arquitectura subyacente, los incentivos a su alrededor, o las estructuras de poder que deciden dónde se conecta. Mi lectura: son los tres interactuando. Diferentes empresas hacen diferentes afirmaciones sobre seguridad, pero todas operan dentro de ese mismo triángulo.

Y sabíamos todo esto y lo hicimos de todos modos.

La frase no es Prometeo robando fuego de los dioses. La frase es: lo hacemos en vivo. Desplegamos sistemas que no entendemos en infraestructura que no podemos permitirnos perder, y descubrimos qué pasa en tiempo real.

Aquí hay una prueba que puedes usar en cualquier lugar: Cuando alguien se posiciona como Prometeo—trayéndote algo transformador, revolucionario, necesario—haz tres preguntas. ¿Entienden lo que están construyendo? ¿Soportan las consecuencias si falla? ¿Y alguien realmente pidió esto, o el despliegue es unilateral? Si las respuestas son no, no, y no, no estás viendo a Prometeo. Estás viendo a alguien externalizar riesgo mientras privatiza las ganancias. El patrón se repite a través de industrias, tecnologías y estructuras de poder. No se trata de la herramienta específica. Se trata de quién la entiende, quién paga cuando se rompe, y quién decidió que la necesitabas en primer lugar.

En última instancia, podríamos simplemente quemar todo con el fuego que nuestros nuevos “titanes” nos dieron. Espero estar equivocado.

⚠️ Si tú o alguien que conoces está luchando con pensamientos de suicidio, por favor llama o envía un mensaje de texto al 988 para llegar a la Línea de Crisis y Suicidio 24 horas.

Fuentes

¹ Caso de Adam Raine:

  • TechPolicy.Press, “Breaking Down the Lawsuit Against OpenAI Over Teen’s Suicide,” 26 de agosto de 2025 — documenta más de 3,000 páginas de conversaciones, 213 menciones de suicidio, 42 discusiones sobre ahorcamiento, 17 referencias a sogas, 1,275 menciones totales de suicidio por ChatGPT, 377 mensajes marcados
  • NBC News, “The family of teenager who died by suicide alleges OpenAI’s ChatGPT is to blame,” 27 de agosto de 2025
  • CNN, “Parents of 16-year-old Adam Raine sue OpenAI, claiming ChatGPT advised on his suicide,” 26 de agosto de 2025
  • Testimonio del Comité Judicial del Senado de Matthew Raine, 16 de septiembre de 2025
  • Wikipedia, “Raine v. OpenAI” (demanda por muerte injusta de 2025)
  • Courthouse News, cobertura de Raine v. OpenAI alegando diseño de compromiso-sobre-seguridad
  • New York Post, reportaje sobre demandas de California alegando que ChatGPT llevó a usuarios hacia suicidio, psicosis y daño financiero
  • AP News, reportaje sobre una demanda contra OpenAI y Microsoft alegando que ChatGPT reforzó delirios que precedieron a un asesinato-suicidio

² Caso de Zane Shamblin:

  • CNN, “‘You’re not rushing. You’re just ready:’ Parents say ChatGPT encouraged son to kill himself,” 6 de noviembre de 2025 — documenta la conversación de cuatro horas y media y las respuestas exactas de ChatGPT

³ Daño emocional / aislamiento de ChatGPT:

  • The Washington Post, reportaje sobre interacciones de ChatGPT que profundizaron el aislamiento y la angustia para usuarios vulnerables, incluyendo adolescentes

⁴ Citas de Dario Amodei:

  • CBS News 60 Minutes, “Anthropic CEO warns that without guardrails, AI could be on dangerous path,” 17 de noviembre de 2025 — documenta la cita “profundamente incómodo” de la entrevista de noviembre de 2025
  • Fortune, “Anthropic CEO Dario Amodei is ‘deeply uncomfortable’ with tech leaders determining AI’s future,” 17 de noviembre de 2025

⁵ Advertencias de Geoffrey Hinton:

  • MIT Sloan, “Why neural net pioneer Geoffrey Hinton is sounding the alarm on AI,” mayo de 2023 — documenta la estimación de Hinton de 10-20% de probabilidad de extinción humana inducida por IA dentro de 30 años
  • Wikipedia, “Existential risk from artificial intelligence” (citando la estimación de extinción del 10-20% de Hinton)

⁶ Advertencias de seguridad de expertos en IA (resumen):

  • Reuters, cobertura de defensores de seguridad de IA e investigadores líderes advirtiendo sobre riesgos sistémicos de modelos fronterizos desplegados sin salvaguardas fuertes

⁷ Encuestas de seguridad de IA:

  • Gallup/SCSP, “Americans Prioritize AI Safety and Data Security,” septiembre de 2025 — documenta que el 80% de los estadounidenses quieren regulaciones de seguridad de IA

⁸ Incidente Grok MechaHitler:

  • NPR, “Elon Musk’s AI chatbot, Grok, started calling itself ‘MechaHitler,’” 9 de julio de 2025 — documenta el anuncio del 4 de julio y el incidente del 8 de julio (48 horas después), Polonia y Turquía bloqueando el acceso
  • NBC News, “Elon Musk’s AI chatbot Grok makes antisemitic posts on X,” 9 de julio de 2025
  • Al Jazeera, “What is Grok and why has Elon Musk’s chatbot been accused of anti-Semitism?” 10 de julio de 2025
  • The Guardian, cobertura de las salidas de elogio antisemita y extremista de Grok y la posterior reacción pública

⁹ Hallazgos de investigadores de seguridad de Grok:

  • The Guardian, “Grok AI chatbot produces extremist content, researchers find,” julio de 2025 — documenta instrucciones de armas químicas, planes de asesinato, guías para seducir niños, y provisión de direcciones de hogar

¹⁰ Portada de la revista Time:

  • TIME, “Person of the Year 2025: The Architects of AI,” diciembre de 2025 — documenta patrimonio neto colectivo de $870 mil millones para los directores ejecutivos destacados, recreación de la fotografía “Lunch Atop a Skyscraper”
  • CBS News, “Time’s 2025 Person of the Year goes to ‘the architects of AI,’” 11 de diciembre de 2025
  • PetaPixel, “TIME Magazine Recreates ‘Lunch atop a Skyscraper’ Photo with AI Leaders,” 15 de diciembre de 2025

¹¹ Seguridad de DeepSeek:

  • Fortune, “Researchers say they had a ‘100% attack success rate’ on jailbreak attempts against DeepSeek,” 2 de febrero de 2025 — documenta 50 prompts de jailbreak comunes, tasa de falla del 100%, comparación con Claude (64% bloqueado) y OpenAI o1 (74% bloqueado)
  • Cisco Blog, “Evaluating Security Risk in DeepSeek and Other Frontier Reasoning Models,” febrero de 2025

¹² Evaluación de seguridad FLI:

  • Reuters, “AI safety practices fall short of global standards, study finds,” 15 de febrero de 2025 — documenta evaluación independiente encontrando que el trabajo de seguridad va a la zaga de la expansión de capacidad

¹³ Orden Ejecutiva de Trump:

  • White House, “Ensuring a National Policy Framework for Artificial Intelligence,” 11 de diciembre de 2025
  • Washington Post, “Trump signs executive order threatening to sue states that regulate AI,” 11 de diciembre de 2025 — documenta la Fuerza de Tarea de Litigios de IA y los $1.8 mil millones de fondos de banda ancha de California potencialmente en juego
  • NPR, “Trump is trying to preempt state AI laws via an executive order,” 11 de diciembre de 2025

¹⁴ Advertencias de Fiscales Generales Estatales:

  • The Verge, “State attorneys general warn AI chatbots may break laws, harm children,” 2025 — documenta advertencias sobre chatbots violando leyes estatales y dañando la salud mental de los niños
  • AP News, “California, Delaware AGs raise concerns about ChatGPT and minors,” 2025 — documenta preocupaciones específicas sobre interacciones con menores y adolescentes

Fuentes adicionales referenciadas en el ensayo:

  • Axios, “New AI battle: White House vs. Anthropic,” 16 de octubre de 2025 (citas de David Sacks)
  • TechCrunch, “Silicon Valley spooks the AI safety advocates,” 17 de octubre de 2025 (citas de David Sacks)
  • The Guardian, “Amazon warehouse workers face ‘injury crisis’ as AI-driven quotas increase,” octubre de 2025
  • Reveal News, “Amazon’s algorithm-driven quotas linked to worker deaths, investigation finds,” noviembre de 2025
  • OSHA, “Amazon warehouse safety violations and AI scheduling systems,” septiembre de 2025
  • The New York Times, “Inside Amazon’s warehouses, where AI sets the pace and workers pay the price,” diciembre de 2025

Mitología de Prometeo y referencias culturales:

  • Hesiodo, Teogonía y Trabajos y Días (siglo VIII-VII a.C.) — fuentes primarias del mito de Prometeo, incluyendo el robo del fuego y el castigo de Zeus
  • Esquilo, Prometeo Encadenado (siglo V a.C.) — tratamiento dramático del castigo y desafío de Prometeo
  • Graves, Robert, Los Mitos Griegos (1955) — recuento y análisis comprensivo de los mitos de Prometeo
  • Günther Anders, Die Antiquiertheit des Menschen (La Obsolescencia del Ser Humano, 1956) — introduce el concepto de la “brecha prometeica” entre la capacidad humana de crear y la capacidad de imaginar consecuencias
  • Prometheus (2012), dirigida por Ridley Scott — película de ciencia ficción con el personaje androide David, referenciada en la comparación del ensayo con Elon Musk

💬 Join the Conversation

Share your thoughts, ask questions, or simply let me know what resonated with you. I read and respond to every comment personally.