IA y Tú Sam Altman de OpenAI es despedido, el auge de los intérpretes sintéticos

IA y Tú Sam Altman de OpenAI es despedido, la aparición de los intérpretes sintéticos

La sabiduría convencional en el periodismo es que cuando una empresa emite un comunicado un viernes por la tarde, generalmente no son buenas noticias.

Y así fue que OpenAI anunció el 17 de noviembre que había destituido al cofundador y CEO Sam Altman y al defensor principal del chatbot de inteligencia artificial generativa ChatGPT de la empresa. La junta directiva le pidió a Altman que se retirara porque ya no tenía confianza en su capacidad para liderar la empresa con sede en San Francisco, según una publicación en el blog en la que OpenAI anunció su transición de liderazgo.

“La salida del Sr. Altman sigue un proceso de revisión deliberativo por parte de la junta directiva, que concluyó que no fue consistentemente franco en su comunicación con la junta, lo que obstaculizó su capacidad para ejercer sus responsabilidades. La junta ya no tiene confianza en su capacidad para continuar liderando OpenAI”.

Ay. Supongo que no estará allí para celebrar el primer cumpleaños de ChatGPT el 30 de noviembre.

Los miembros de la junta que despidieron a Altman son el científico jefe de OpenAI, Ilya Sutskever, y los directores independientes de OpenAI, el CEO de Quora Adam D’Angelo, la empresaria tecnológica Tasha McCauley y la directora del Centro para Tecnología Emergente y Seguridad de Georgetown Helen Toner. Mira Murati, directora de tecnología de la empresa, fue nombrada CEO interina mientras OpenAI busca al reemplazo permanente de Altman. Greg Brockman, cofundador de la empresa, también anunció que renuncia como presidente de la junta directiva, según dijo la compañía el viernes.

OpenAI me dijo que no tenía ningún comentario adicional y me remitió de nuevo a su publicación en el blog.

Este es un gran problema en la industria de la inteligencia artificial, dado que Altman ha sido el niño prodigio de los chatbots de inteligencia artificial generativa, desde destacar el potencial de ChatGPT para ayudar a los avances en el logro humano hasta instar a los reguladores a ofrecer legislación para ayudar a las empresas a seguir innovando mientras se protegen contra las posibles amenazas de seguridad, privacidad y fin de la humanidad que los genAI podrían representar en manos de actores malintencionados. ChatGPTes la herramienta genAI más visitada, según Similarweb, con más de 1.500 millones de visitas en octubre.

The New York Times dijo que esto fue una “caída sorprendente para el sr. Altman, de 38 años, quien en el último año se había convertido en uno de los ejecutivos más destacados de la industria tecnológica, así como uno de los personajes más fascinantes.” CNN describió a Altman como una “celebridad casi de la noche a la mañana y rostro de una nueva generación de herramientas de IA que pueden generar imágenes y textos en respuesta a simples indicaciones de los usuarios”. The Guardian describió la salida de Altman como “un gran cambio en el mundo de la IA”. Señaló que fue despedido por “supuestamente mentirle a la junta directiva de su empresa” pero que “no estaba claro qué era lo que Altman había ocultado supuestamente a su junta directiva”.

“En el Valle del Silicio, Altman era conocido desde hace mucho tiempo como un inversionista inteligente y partidario de empresas más pequeñas, pero el ascenso de OpenAI lo catapultó al nivel de los titanes tecnológicos junto a Musk, el CEO de Meta Mark Zuckerberg e incluso el fallecido CEO de Apple Steve Jobs”, señaló The Washington Post. “Incluso el jueves pasado, Altman estaba actuando como CEO, hablando en el escenario en la cumbre de Cooperación Económica Asia-Pacífico en San Francisco”.

Pregunté a ChatGPT qué podía decirme sobre la junta directiva de OpenAI y su decisión de despedir al CEO Sam Altman. Se disculpó por no poder responder porque no tiene acceso a noticias en tiempo real ni información específica sobre eventos recientes. (Su entrenamiento va hasta septiembre de 2021). Describió a Altman como un “empresario e inversor estadounidense”.

Por su parte, Altman, quien asumió como CEO en 2020 después de ayudar a fundar OpenAI inicialmente como una organización sin fines de lucro en 2015 con el respaldo de los multimillonarios de la tecnología Elon Musk, Peter Thiel y Reid Hoffman, dijo en una publicación en X (también conocido como Twitter) que “amé mi tiempo en OpenAI. fue transformador para mí personalmente, y espero que también para el mundo, aunque sea un poco. sobre todo, me encantó trabajar con personas tan talentosas.”

Él agregó que “tendrá más que decir sobre lo que viene después más adelante”.

En términos periodísticos, eso significa que esta es una historia en desarrollo. Manténganse alerta.

Aquí están los otros acontecimientos en IA que vale la pena prestar atención.

Clones, duplicados digitales y actores sintéticos

Una preocupación acerca de la IA generativa es cómo la tecnología puede ser utilizada para copiar personas reales y engañarte haciéndote creer que esa persona está diciendo o haciendo algo que no hizo. Ese es el problema con los deepfakes, que como su nombre lo indica, tienen la intención de engañar o desinformar. El actor Tom Hanks advirtió en octubre que un clon de IA estaba promoviendo planes dentales en un anuncio no autorizado. Mientras presentaba su Orden Ejecutiva con medidas restrictivas en torno al desarrollo y uso de la IA, el presidente Joe Biden bromeó sobre un doble de IA que imitaba su voz.

Pero más allá de los anuncios y las campañas de desinformación, los actores y artistas de Hollywood también están preocupados de que la genIA pueda ser utilizada por los estudios y creadores de contenido de Hollywood para crear duplicados digitales o actores sintéticos en lugar de usar (y pagar) a humanos. Eso sigue siendo un problema incluso después de que se resolviera la huelga de actores en Hollywood, con el acuerdo incluyendo medidas restrictivas sobre el uso de la genIA en la industria que requiere que los actores den su permiso a los productores que quieran crear y utilizar sus réplicas digitales.

Justine Bateman, la actriz que sirvió como asesora del sindicato en las negociaciones de la genIA con Hollywood, resumió el problema más amplio de la siguiente manera en una publicación en X (anteriormente conocido como Twitter) a principios de esta semana.

“Ganar una audición podría volverse muy difícil, porque no solo estarás compitiendo con los actores disponibles que sean de tu tipo, sino que ahora también competirás con cada actor, muerto o vivo, que haya puesto a disposición su ‘doble digital’ para alquilarlo en una variedad de edades para adaptarse al personaje”, escribió Bateman. “También estarás compitiendo con un número infinito de Objetos de IA que los estudios/plataformas pueden usar libremente. Y todo un elenco de Objetos de IA en lugar de actores humanos elimina la necesidad de un set o cualquier equipo en absoluto”.

¿Qué tan fácil es usar la IA para generar duplicados digitales y actores sintéticos? Permíteme mencionar tres desarrollos interesantes de IA en las noticias de la semana pasada que subrayan el problema.

El primero viene de Charlie Holtz, un “hacker residente” en Replicate, una startup de aprendizaje automático, que creó un clon de IA del biólogo e historiador británico Sir David Attenborough, según informó Insider. En una publicación en X, Holtz mostró cómo pudo replicar la distintiva voz del cineasta documentalista. El resultado: “Esto es lo que sucede cuando David Attenborough narra tu vida”.

Holtz compartió libremente el código para apropiarse de la voz de Attenborough. Hasta este momento, Attenborough no ha respondido a la solicitud de comentarios de Insider, pero el experimento de Holtz ha tenido más de 3.5 millones de visualizaciones. Un comentarista dijo que espera con ansias que Attenborough “narre los videos de mi bebé aprendiendo a comer brócoli”.

El segundo es una herramienta musical experimental llamada Dream Track de YouTube, que te permite crear tus propias pistas de música clonando las voces de nueve músicos, incluyendo a John Legend, Demi Lovato y Sia, con su permiso. Creado en colaboración con Google’s DeepMind AI lab, Dream Track está siendo probado por un grupo seleccionado de creadores estadounidenses que pueden crear una banda sonora para sus vídeos de YouTube escribiendo su idea para la canción en un recuadro y luego eligiendo a uno de los nueve artistas. La herramienta luego creará una banda sonora original para los vídeos de YouTube con la voz generada por IA del artista.

―Ser parte del experimento Dream Track de YouTube es una oportunidad para ayudar a dar forma a las posibilidades del futuro―, dijo Legend en un testimonio publicado en un blog de YouTube. ―Como artista, me complace tener un asiento en la mesa y espero ver lo que los creadores sueñan durante este período.―

Charli XCX parecía ser un poco más cautelosa en su respaldo. ―Cuando YouTube se acercó a mí por primera vez, fui cautelosa y todavía lo soy, la IA va a transformar el mundo y la industria musical de maneras que aún no comprendemos completamente. Este experimento ofrecerá una pequeña visión de las oportunidades creativas que podrían ser posibles y estoy interesada en ver qué resulta de ello.―

Puedes escuchar un ejemplo con T-Pain que se generó a partir de la consigna: “una mañana soleada en Florida, R&B.” Otro clona a Charlie Puth y crea “una balada sobre cómo los opuestos se atraen, acústico y animado.”

La noticia sobre Dream Track llegó al mismo tiempo que YouTube anunció sus pautas para la “innovación responsable de la IA” en su plataforma. Los creadores de videos deberán seleccionar algunas etiquetas de contenido al cargar videos para revelar cuándo “contiene material alterado o sintético realista… Esto es especialmente importante en casos donde el contenido aborda temas sensibles, como elecciones, conflictos en curso y crisis de salud pública, o funcionarios públicos.”

El tercer conjunto de tecnologías genAI que destaco proviene de Meta, Emu Video y Emu Edit. Una herramienta de generación de video “simple”, Emu Video te permite crear un clip animado de 4 segundos, a 16 fotogramas por segundo, utilizando solo texto, solo imagen o ambos. Emu Edit ofrece una forma fácil de editar esas imágenes. Puedes ver por ti mismo cómo funciona.

La herramienta de demostración de Meta te permite elegir entre un conjunto de imágenes, como un panda con gafas de sol o un perro Pembroke Welsh corgi, y luego puedes seleccionar entre las indicaciones proporcionadas para que tu personaje aparezca en Central Park o bajo el agua, mientras caminas en cámara lenta o haces skate en un estilo fotorrealista o Anime Manga. Yo elegí que el gato baile enérgicamente en Times Square en ilustración de papel recortado.

Emu Video de Meta te permite crear un video animado de 4 segundos seleccionando de un conjunto de imágenes y descripciones basadas en texto. Yo elegí que el gato baile enérgicamente en Times Square en ilustración de papel recortado.

Software Emu Video de Meta

Podrías pensar, “oh, esa es una forma fácil de crear un GIF”. Pero en un futuro cercano, es posible que puedas colocar todo tipo de personajes en la herramienta y, con solo unas pocas palabras, crear una película corta.

¿Tener IA, viajar? Más o menos

Uno de los casos de uso más populares para los chatbots es ayudar en la planificación de viajes, el proceso que consume mucho tiempo y es laborioso de trazar un itinerario detallado. Y si bien hay muchos informes anecdóticos sobre el éxito de tener genAI haciendo ese trabajo por ti, Katie Collins de ENBLE nos recuerda que trazar un itinerario implica más que simplemente crear una lista de lugares para ver y cosas que hacer.

―Los mejores itinerarios unirán tu día de una manera que tenga sentido geográfica y temáticamente―, escribió Collins acerca de trazar un recorrido por su ciudad natal, Edimburgo, Escocia, un lugar que dice conocer bien. Ella confió en herramientas como ChatGPT, GuideGeek, Roam Around, Wonderplan, Tripnotes y la aplicación Out of Office, o OOO.

―El trayecto entre la atracción A y la atracción B será parte de la diversión, llevándote por una calle pintoresca o brindándote una vista sorprendente que de otro modo no habrías visto. También estará bien planificado, teniendo en cuenta que para el tercer museo del día, incluso los más cultos entre nosotros probablemente estarán lidiando con el cansancio del museo―, dijo ella.

Así que, aunque los chatbots pueden generar listas de atracciones conocidas y populares, Collins dijo: “muy pocas de las rutas que le pedí al AI que creara para Edimburgo cumplen con este requisito” y “el hecho de que el AI use datos históricos lo hace increíblemente retroactivo”, lo que puede llevarte a lugares que ya no existen.

Entonces, como ocurre con la mayoría de los genAI, debes verificar y corroborar lo que el AI te está diciendo antes de salir. Collins advierte: “Eso aplica a todo lo que te dice”.

¿Cuántas alucinaciones estamos hablando?

La historia de Collins me recordó el problema completo de la “alucinación” (hallucination) —es cuando los chatbots dan respuestas a tus preguntas que no son verdaderas, pero suenan como si lo fueran—, que sigue siendo un problema importante para los grandes modelos de lenguaje como ChatGPT y Google Bard.

Investigadores de una startup llamada Vectara, fundada por ex empleados de Google, intentaron cuantificar qué tan grave es este problema y descubrieron que “los chatbots inventan información al menos el 3% del tiempo, y en algunos casos hasta el 27%”, según informó el New York Times.

Vectara ahora está publicando un “Hallucination Leaderboard”, que evalúa con qué frecuencia el LLM presenta alucinaciones al resumir un documento. Hasta el 1 de noviembre, OpenAI’s GPT 4 fue el mejor calificado (con un índice de alucinación del 3%), y las peores puntuaciones fueron para la tecnología Palm 2 de Google, que tuvo un índice de alucinación del 27.2%. La empresa dijo que actualizará el leaderboard “regularmente a medida que nuestro modelo y los LLMs se actualicen con el tiempo”.

Microsoft presenta su propio chip de IA

Microsoft presentó el primero de una serie de aceleradores Maia para IA, y según reportes de CNBC, Reuters y ENBLE, afirmó que el chip fue diseñado para impulsar su propio negocio de la nube y sus servicios de software por suscripción, no para revenderlos a otros proveedores.

“El chip Maia se diseñó para ejecutar grandes modelos de lenguaje, un tipo de software de IA que respalda el servicio Azure OpenAI de Microsoft y es producto de la colaboración de Microsoft con OpenAI, creadores de ChatGPT”, dijo Reuters. “Microsoft y otros gigantes tecnológicos como Alphabet (GOOGL.O) están lidiando con el alto costo de ofrecer servicios de IA, que puede ser 10 veces mayor que los servicios tradicionales como los motores de búsqueda”.

Según CNBC, citando una entrevista con la vicepresidenta corporativa de Microsoft, Rani Borkar, “Microsoft está probando cómo se desempeña el Maia 100 en relación con las necesidades del motor de búsqueda Bing, el asistente de codificación GitHub Copilot (anteriormente conocido como Bing Chat) y GPT-3.5-Turbo, un gran modelo de lenguaje respaldado por Microsoft y OpenAI”.

El Maia 100 tiene 105 mil millones de transistores, lo que lo convierte en “uno de los chips más grandes en tecnología de proceso de 5 nanómetros”, según ENBLE.

Término de IA de la semana: Aprendizaje profundo

Cuando las personas hablan de IA, es posible que escuches acerca de cómo imitará (o no) el cerebro humano. Por eso se utiliza el término “aprendizaje profundo”. Aquí hay dos definiciones, siendo la primera una explicación directa de Coursera.

Aprendizaje profundo: Una función de la IA que imita el cerebro humano al aprender cómo estructura y procesa la información para tomar decisiones. En lugar de depender de un algoritmo que solo puede realizar una tarea específica, este subconjunto del aprendizaje automático puede aprender de datos no estructurados sin supervisión”.

El segundo es de IBM, que también ofrece explicación sobre cómo funciona el aprendizaje profundo .

“Aprendizaje profundo: Un subconjunto del aprendizaje automático, que es básicamente una red neuronal con tres o más capas. Estas redes neuronales intentan simular el comportamiento del cerebro humano, aunque están lejos de igualar su capacidad, lo que les permite ‘aprender’ a partir de grandes cantidades de datos. Mientras que una red neuronal con una sola capa aún puede hacer predicciones aproximadas, capas ocultas adicionales pueden ayudar a optimizar y refinar la precisión.

El aprendizaje profundo impulsa muchas aplicaciones y servicios de inteligencia artificial que mejoran la automatización, realizando tareas analíticas y físicas sin intervención humana. La tecnología de aprendizaje profundo se encuentra detrás de productos y servicios cotidianos (como asistentes digitales, controles remotos de TV activados por voz y detección de fraudes en tarjetas de crédito), así como de tecnologías emergentes (como los autos autónomos).”

Nota de los editores: ENBLE está utilizando un motor de IA para ayudar a crear algunas historias. Para obtener más información, consulta esta publicación.