← Todas las noticias
Modo de lectura
01 — 04 Tecnología · Internacional
Tecnología · Internacional

Sam Altman declara en el juicio de Musk: la exdirectora de OpenAI dice que le mintió

El creador de ChatGPT se sentó hoy en el banquillo de Los Ángeles para responder a la demanda de Elon Musk. Su antigua directora de tecnología, Mira Murati, ya había declarado bajo juramento que Altman le mintió sobre la seguridad de un modelo de IA. El juicio enfrenta a dos hombres que cofundaron la empresa más influyente en inteligencia artificial y que ahora se acusan mutuamente de traición y fraude.

Noticias HdD · 12·05·26 Autor · Redacción HdD
02 — 04 Antes de leer

Lo que necesitas saber primero

¿Qué es OpenAI y por qué importa quién la controla?

OpenAI es la empresa que creó ChatGPT, el modelo de inteligencia artificial más usado del mundo. Fue fundada en 2015 como una organización sin ánimo de lucro con la misión de desarrollar IA de forma segura y beneficiosa para toda la humanidad. Con el tiempo se convirtió en una empresa mixta con inversores privados, lo que cambió sus incentivos. Hoy es la empresa de IA más valiosa del mundo, con acceso a los modelos más potentes existentes.

¿Quiénes son Altman y Musk y por qué se enfrentan?

Sam Altman (40 años) es el CEO de OpenAI desde 2019, conocido por ser el arquitecto de la expansión comercial de ChatGPT y por su estrecha relación con Microsoft. Elon Musk cofundó OpenAI en 2015 con Altman y otros, aportando dinero y visión. Se marchó del consejo en 2018 argumentando conflictos de interés con Tesla. Ahora demanda a OpenAI alegando que traicionó su misión fundacional al convertirse en empresa con ánimo de lucro y enriquecerse a sus espaldas.

¿Qué significa 'mentir sobre la seguridad de un modelo de IA'?

Dentro de OpenAI existen protocolos internos de revisión de seguridad antes de lanzar un nuevo modelo: equipos que buscan riesgos, sesgos y comportamientos peligrosos. Murati declaró bajo juramento que Altman le dijo que el equipo legal había determinado que un modelo concreto no necesitaba pasar por esa revisión. Cuando Murati lo verificó con otros directivos, la versión de Altman no coincidía. Si es cierto, significa que se lanzó un sistema de IA potente sin los controles internos establecidos.

03 — 04 La noticia

Sam Altman declara en el juicio de Musk: la exdirectora de OpenAI dice que le mintió

Los hechos

Sam Altman, CEO de OpenAI, declaró el 12 de mayo de 2026 en el juicio que Elon Musk interpuso contra él y contra la empresa en Los Ángeles. Altman dijo ante el jurado que no entendía la acusación de Musk de que él y otros ejecutivos estaban «robando a una organización benéfica». Cuando se le preguntó sobre un mensaje de texto de 2023 en el que expresaba gratitud a Musk, Altman respondió que «he cambiado mi opinión sobre Elon significativamente».

Días antes, Mira Murati, exdirectora de tecnología de OpenAI que dejó la empresa en 2024, declaró bajo juramento que Altman le mintió sobre los controles de seguridad de un modelo de IA: Altman aseguró que el departamento legal había validado que no era necesaria la revisión interna de seguridad, pero esa versión no coincidió con lo que otros directivos le dijeron a Murati. Cuando se le preguntó directamente si Altman decía la verdad, respondió: «No».

Murati acusó también a Altman de «crear caos» dentro de la compañía, de «decir una cosa a una persona y todo lo contrario a otra» y de socavar su capacidad para hacer su trabajo. El juicio ha sacado a la luz mensajes privados, un diario secreto y acusaciones cruzadas de mentiras.

El contexto

El juicio llega en un momento en que OpenAI vale más de 300.000 millones de dólares y negocia su conversión definitiva de organización sin ánimo de lucro a empresa con ánimo de lucro. Esa conversión es exactamente lo que Musk impugna: alega que los fundadores desviaron una organización benéfica hacia sus intereses privados.

Musk fundó su propia empresa de IA, xAI, en 2023, con el modelo Grok como producto principal. Tiene, por tanto, intereses comerciales directos en que OpenAI pierda credibilidad o sea obligada a modificar su estructura.

El juicio también llega en un momento de máxima tensión pública sobre quién controla la IA: qué modelo se lanza, con qué revisiones de seguridad, y quién decide los límites. El testimonio de Murati sobre los controles de seguridad omitidos es la primera acusación pública con rango judicial de que OpenAI podría haber lanzado sistemas sin los controles internos que prometía aplicar.

Las motivaciones posibles

Los incentivos que siguen son observables a partir de posiciones públicas. No son intenciones confirmadas.

Elon Musk Tiene incentivo económico directo para dañar la reputación de OpenAI porque su empresa xAI compite por los mismos clientes, inversores y talento. También tiene incentivo reputacional: si gana el juicio, se consolida como el guardián de la IA 'segura' frente a Altman. El riesgo para Musk es que el juicio también ha expuesto su comportamiento dentro de OpenAI, con testimonios que lo describen como errático e impredecible.
Sam Altman / OpenAI Tiene incentivo para que el juicio acabe rápido con una sentencia favorable, porque la incertidumbre judicial dificulta la captación de inversión y la conversión a empresa con ánimo de lucro. Al mismo tiempo, el testimonio de Murati —interna de confianza durante años— es el daño más serio para Altman porque no viene de un adversario sino de alguien que lo conocía desde dentro.
Microsoft e inversores Microsoft, que ha invertido más de 13.000 millones de dólares en OpenAI, tiene incentivo para que el juicio termine con OpenAI intacta y el modelo de negocio actual validado. Una sentencia que obligue a OpenAI a volver a su estructura original de ONG destruiría el valor de esa inversión.
04 — 04 Análisis

Lo que los datos no dicen solos

Cómo lo han contado otros medios

La prensa tecnológica anglosajona (CNBC, NBC News, Gizmodo) sigue el juicio en tiempo real con énfasis en las revelaciones personales —mensajes privados, el 'momento particularmente preocupante' con Musk hablando de heredar el control de OpenAI para sus hijos. La prensa generalista española ha cubierto el inicio del juicio pero con menos seguimiento diario. El ángulo de los controles de seguridad de la IA —el más relevante para el debate público sobre riesgos de la IA— ha tenido menos atención que el aspecto de culebrón personal.

Lo que queda abierto

  • ¿Quién vigila que OpenAI aplica realmente sus propios protocolos de seguridad?
  • ¿Puede una empresa con ánimo de lucro tener incentivos alineados con el desarrollo seguro de la IA?
  • Si Musk ganara el juicio, ¿podría realmente revertir la conversión de OpenAI a empresa privada?
La pregunta

Si los dos hombres que más han influido en la IA que usamos cada día se acusan mutuamente de mentir y traicionar, ¿en quién debemos confiar para que esa tecnología sea segura?

Nota metodológica

Cómo verificamos este artículo

Fuentes: Infobae (12 mayo 2026, Mira Murati vs. Sam Altman); La Nación Argentina (12 mayo 2026, acusación de 'crear caos'); NBC News (12 mayo 2026, declaración de Altman); Bloomberg Línea (12 mayo 2026, contexto del juicio); CNBC (12 mayo 2026, Altman testifica). Las motivaciones recogidas son incentivos observables a partir de posiciones públicas documentadas. Errores o información adicional: redaccion@horadedespertar.org

← Todas las noticias