Sam Altman, director ejecutivo de OpenAI, pidió a la actriz Scarlett Johansson -que puso voz a una asistente de inteligencia artificial en la película Her (2013)- que pusiera voz a ChatGPT. Ella dijo que no. Así que OpenAI inventó una voz muy parecida a la de la actriz y la utilizó sin decírselo. Ahora, la actriz ha pedido un abogado y OpenAI tiene un huevo en la cara. (Desde entonces ha eliminado la voz de Her de su chatbot).
El trato dado por Altman a Johansson es algo más que una "autopropaganda" aislada o un error de relaciones públicas. Visto en el contexto de algunos otros hitos en el liderazgo de Altman, parece parte de un patrón más amplio.
Hace tan sólo seis meses, el consejo de administración de OpenAI despidió a Altman porque "no fue siempre sincero en sus comunicaciones" con ellos. (Altman fue readmitido poco después ante la insistencia de los inversores y empleados de OpenAI). Una fuente que le conoce me dice que Altman a menudo "dice una cosa y hace otra".
Puede leer también | Bill Gates entrevista a Sam Altman sobre el rápido ascenso de OpenAI
Altman ha hablado de la importancia de la investigación sobre seguridad, pero se le ha acusado de apresurar la salida al mercado de nuevos productos de IA sin dedicar el tiempo suficiente a garantizar su seguridad. La última acusación proviene de Jan Leike, que recientemente abandonó la empresa (junto con el cofundador Ilya Sutskever) tras la disolución del grupo de seguridad "superalineado" que dirigía.
"En los últimos años, la cultura y los procesos de seguridad han quedado relegados a un segundo plano frente a los productos brillantes", escribió Leike en X (antes Twitter). "He estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura".
Puede leer también | Curso ChatGPT marketing para ventas exitosas
El año pasado, cuando OpenAI anunció el equipo de superalineación, Altman dijo que la empresa destinaría el 20% de su potencia informática a su trabajo de alineación. Pero, como informa Fortune citando a media docena de fuentes conocedoras, eso nunca ocurrió.
OpenAI fue la primera en darse cuenta de que aumentando drásticamente el tamaño de los modelos, los datos de entrenamiento y la potencia de cálculo, los modelos de IA podían empezar a demostrar una habilidad asombrosa. Para obtener suficientes datos de entrenamiento, la empresa aspiró grandes cantidades de datos de la web, sin permiso ni compensación para los editores de los contenidos. OpenAI afirma que esta práctica está amparada por el "uso justo" de los derechos de autor. Pero ahora que su método de recopilación de datos de entrenamiento es más conocido, paga regularmente a sitios web por los datos -el más reciente, Reddit- y ha sido demandada por el New York Times por alimentar sus modelos con contenido textual del sitio de noticias.
Puede leer también | OpenAI lanza GPT-4o y ChatGPT se hace más conversacional
Con el éxito de su enfoque de "superdimensionamiento", Altman y compañía empezaron a cerrar el acceso a su investigación, que antes compartían abiertamente con la comunidad de IA. Los inversores que empezaron a invertir en la empresa insistieron en que la investigación se tratara como una valiosa propiedad intelectual y se guardara bajo llave.
Sutskever y Leike pueden haber sido los últimos abanderados de la antigua OpenAI y de su intención declarada de "construir una inteligencia artificial general que sea segura y beneficie a toda la humanidad". Desde el embrollo de liderazgo del pasado noviembre, es muy probable que Altman y sus aliados, y los inversores de capital riesgo de OpenAI, marquen ahora la agenda de la empresa.
Puede que los inversores admiren a Altman, que al fin y al cabo es inversor. Pueden ver su enfoque de "mejor pedir perdón que permiso" a la voz de Johansson, y el contenido de los editores, como ejemplos de actuar unilateralmente para conseguir algo. Es posible que consideren que el trabajo del Consejero Delegado consiste en dar una imagen pública agradable de un negocio que, en ocasiones, conlleva prácticas poco recomendables.
Puede leer también | Elon Musk se enfrenta a ChatGPT con Grok AI
"La voz de Sky no es la de Scarlett Johansson, y nunca se pretendió que se pareciera a la suya", dijo Altman en un comunicado a última hora del lunes. "Hicimos el casting del actor de doblaje detrás de la voz de Sky antes de cualquier contacto con la Sra. Johansson. Por respeto a la Sra. Johansson, hemos dejado de utilizar la voz de Sky en nuestros productos. Lamentamos a la Sra. Johansson no habernos comunicado mejor".
Cuando OpenAI publicó una demo de su último modelo ChatGPT la semana pasada, incluía el "Modo Voz", con una IA emotiva que respondía a las preguntas. Una de esas voces era "Sky".