Fin de la era salvaje de la IA: Trump da marcha atrás y exigirá revisión gubernamental de modelos avanzados
Fin de la era salvaje de la IA: Trump da marcha atrás y exigirá revisión gubernamental de modelos avanzados
En un giro sorprendente que marca un cambio significativo en la política tecnológica de Estados Unidos, la administración del presidente Donald Trump está considerando implementar revisiones gubernamentales obligatorias para los nuevos modelos de inteligencia artificial de frontera antes de su lanzamiento al público. Esta medida, reportada a principios de mayo de 2026, representa un alejamiento de la postura inicial de “mínima intervención” que caracterizó los primeros meses de su mandato.
Según fuentes cercanas a la Casa Blanca, el gobierno está discutiendo una orden ejecutiva que crearía un grupo de trabajo interinstitucional con ejecutivos de las principales compañías tecnológicas. Este grupo evaluaría procedimientos de supervisión, incluyendo revisiones de seguridad nacional, riesgos cibernéticos y alineación con estándares éticos. El Departamento de Comercio ya firmó acuerdos con Google, DeepMind, Microsoft y xAI para evaluar modelos antes de su despliegue público, incluyendo evaluaciones en entornos controlados e incluso clasificados.
¿Por qué este cambio repentino?
Expertos señalan varios factores. En primer lugar, la preocupación por la ciberseguridad: agencias como la AISI (AI Safety Institute) han reportado que las capacidades ofensivas en ciberataques de modelos frontier se duplican cada cuatro meses. Modelos avanzados como Claude Mythos Preview de Anthropic han generado alertas por su potencial en ataques complejos. En segundo lugar, la competencia geopolítica con China, que avanza rápidamente en modelos de código abierto y aplicaciones militares. Y tercero, presiones internas tras incidentes de deepfakes, desinformación y posibles riesgos existenciales.
Este enfoque se asemeja parcialmente al modelo británico, donde múltiples agencias verifican estándares de seguridad. Sin embargo, críticos como Marc Andreessen y Beff Jezos advierten que podría ralentizar la innovación estadounidense y beneficiar a competidores internacionales. Por su parte, defensores como Joe Lonsdale enfatizan que debe ser “limitada y enfocada” en riesgos reales de seguridad nacional.
Implicaciones para la industria
● Compañías afectadas: OpenAI, Anthropic, Google, Microsoft y xAI ya están en conversaciones. Anthropic tuvo tensiones previas con el Pentágono por restricciones en usos militares.
● Para startups y Latam: Esto podría encarecer el acceso a modelos de vanguardia y aumentar la burocracia, pero también genera oportunidades en auditoría de IA, compliance y desarrollo de modelos “regulatorios-friendly”.
● Mercado: Las acciones de compañías de ciberseguridad y chips (como AMD y Nvidia reaccionaron positivamente ante la noticia de mayor inversión en infraestructura segura.
Conclusión
Este posible marco regulatorio no es un freno total, sino un intento de equilibrar liderazgo tecnológico con seguridad. En un mundo donde la IA ya supera a humanos en múltiples benchmarks, la pregunta ya no es si regular, sino cómo hacerlo sin perder la carrera global. ¿Veremos un “FDA para la IA”? Los próximos meses serán clave.
The New York Times (4 mayo 2026): White House Considers Vetting A.I. Models Before They Are Released
Reuters: White House considers government reviews for AI models
Comentarios
Publicar un comentario