5 formas en que la inteligencia artificial cambió Internet en 2023

5 maneras en que la inteligencia artificial ha transformado Internet en 2023

Es difícil de creer, pero ChatGPT tiene apenas un año de edad.

Cuando OpenAI lanzó por primera vez ChatGPT en noviembre de 2022, se convirtió en la aplicación de más rápido crecimiento de todos los tiempos, causó pánico en Google y encendió la mecha de una carrera de IA generativa dentro de las grandes tecnologías.

Desde entonces, el surgimiento de la IA generativa ha sido llamado la próxima revolución industrial, ha planteado preguntas filosóficas y éticas sobre la supervivencia humana y ha hecho que los gobiernos presten atención a su potencial destructivo. Así que sí, fue un año bastante grande para la IA.

Ningún lugar es más evidente que en internet. Obviamente, la IA depende de Internet, así que no eso. Pero más bien nuestra experiencia del surgimiento de la IA generativa a través de la lente de la web: el miedo, los ciclos de hype, los deepfakes virales, los artículos sobre las amenazas existenciales de la IA, los debates éticos, los escándalos y, por último pero no menos importante, la acelerada enshittification de la web en manos de la IA. ¿Necesitas pruebas? Cuando se entrena un modelo de IA con datos generados por IA, se colapsa.

Ya sea mencionada explícitamente o no, la IA dejó su huella en todo Internet este año.

La IA generativa en 2023 ha sido un viaje salvaje que nos ha envejecido mucho más que un año. Estamos seguros de que a partir de ahora todo será tranquilo, pero primero, echemos un vistazo atrás.

1. Dio un nuevo significado a “alucinación” no relacionado con las drogas

Este fue el año en que todos aprendieron que las computadoras también pueden alucinar, pero no de una manera divertida o trascendental. La alucinación es cuando la IA generativa fabrica sus respuestas con confianza, dándole la ilusión de creer algo que no es cierto. 

ChatGPT en móvil

Los LLM funcionan al predecir probabilísticamente la siguiente palabra basándose en la enorme cantidad de datos en los que están entrenados. Debido a esto, las alucinaciones de la IA a menudo tienen sentido lingüísticamente y a veces contienen elementos de la realidad, lo que hace difícil separar los hechos de la absoluta tontería. Eso, o empieza a sonar como tu amigo alucinando en Burning Man. 

Desde que se lanzó ChatGPT, seguido por Bing Chat y Bard, Internet se ha llenado de cosas locas que los chatbots de IA han dicho, ya sea sin provocación o a través de fugas. Van desde cosas inocuas y tontas (aunque espeluznantes) hasta difamatorias y dañinas. Incluso Google cayó víctima de su propio chatbot Bard al incluir información inexacta en un video de demostración. En cualquier caso, ha tenido el efecto acumulativo de hacer que Internet cuestione la realidad. 

2. Impulsó los deepfakes en la corriente principal

Los deepfakes, o medios que han sido alterados por la IA para parecer reales, han sido una preocupación desde hace algún tiempo. Pero este año, la disponibilidad generalizada de herramientas de IA generativa hizo que fuera más fácil que nunca crear imágenes, videos y audio realistas. 

OpenAI DALL-E 3, Google Bard y generador de imagen SGE, Microsoft Copilot (anteriormente Bing Chat Image Creator) y Imagine de Meta son ejemplos de modelos que utilizan IA generativa para crear imágenes a partir de indicaciones de texto. Incluso las plataformas de medios Shutterstock, Adobe y Getty Images se han sumado al juego con sus propias herramientas generadoras de imágenes con IA. 

DALL-E 2 vs. DALL-E 3 representados con un jugador de baloncesto

Muchos de estos servicios tienen reglas y restricciones para combatir los riesgos y daños del mundo real que presenta la generación de imágenes con inteligencia artificial. Algunas de las formas en que evitan el uso malintencionado incluyen poner marcas de agua en las imágenes creadas por IA, negarse a generar rostros fotorrealistas o representaciones de figuras públicas, y prohibir contenido peligroso o inapropiado.

Pero eso no ha impedido que la gente encuentre una forma. Este año, circuló una canción en servicios de transmisión de música que sonaba convincentemente como Drake y TheWeeknd antes de ser eliminada. Usando IA, Tom Hanks parecía estar promocionando un plan dental en Instagram, y la voz e imagen de Scarlett Johansson se utilizaron para promocionar una aplicación de anuario de los años 90.

Los deepfakes se han convertido en una amenaza para las figuras públicas y su sustento, y el Congreso ha presentado un proyecto de ley para proteger a los artistas de réplicas de IA sin su consentimiento. La orden ejecutiva de IA del presidente Biden también aborda la amenaza de los deepfakes al establecer que todo el contenido generado por IA debe tener una marca de agua.

3. Alzó la voz sobre los datos de entrenamiento

¿Cómo se volvieron tan buenos los LLM? Se entrenan con todo internet. Todo, desde publicaciones de Reddit, publicaciones en redes sociales, páginas de Wikipedia, cientos de miles de libros pirateados, sitios de noticias, artículos académicos, subtítulos de YouTube, blogs de comida y memes, satisface sus voraces apetitos de modelos de IA.

ChatGPT representado como una aplicación móvil en un teléfono

Si usar la web para entrenar modelos de IA está permitido o no es una cuestión controvertida. Tanto OpenAI como Google enfrentaron demandas colectivas presentadas por el bufete de abogados Clarkson Law Firm, acusados de “robar” información personal sin consentimiento e infringir obras con derechos de autor. Meta y Microsoft también enfrentan demandas por entrenar sus modelos con la base de datos Books3, que incluía libros pirateados. (La base de datos Books3 fue eliminada en agosto después de una denuncia DMCA).

En un caso de infracción de derechos de autor más evidente, la autora Jane Friedman descubrió una colección de libros generados por IA escritos a su nombre y a la venta en Amazon.

Algunos dicen que usar datos disponibles públicamente en internet es un uso legítimo. Otros dicen que las leyes de privacidad y derechos de autor no fueron escritas teniendo en cuenta el aprendizaje automático sofisticado y deberían actualizarse. Todos están de acuerdo en que es un problema realmente complejo que aún no se ha resuelto.

4. Nos presentó al contenido generado por IA

Una de las capacidades asombrosas de la IA generativa es escribir un lenguaje que suena natural. Actualmente, la mayoría del contenido generado por IA se lee como si fuera escrito por un estudiante de secundaria que no hizo toda la lectura, propenso a inexactitudes y ligeramente robótico. Pero con el tiempo, los LLM están mejorando, lo que hace que la automatización de artículos, comunicados de prensa, ofertas de trabajo, obras creativas y más sea demasiado tentadora para muchas personas.

Representación del uso de indicaciones de texto para utilizar IA generativa

Pero los primeros intentos de introducir contenido generado por IA a los consumidores han generado una considerable reacción negativa. ENBLE enfureció tanto a los empleados como a los lectores al publicar en silencio artículos generados por IA (muchos de los cuales eran inexactos). Gizmodo fue descubierto publicando una historia generada por IA inexacta sobre Star Wars y Sports Illustrated simplemente inventó a un autor que aparentemente no existe.

En otros lugares de Internet, Meta se apoderó por completo de la IA generativa al presentarnos “Personas” basadas en celebridades, pero en realidad no son esas figuras de alto perfil —y está desarrollando herramientas para anunciantes para crear anuncios generados por IA.

Incluso la industria de la música está entrando en el juego. Se informa que la discográfica UMG, que representa a Drake, está explorando una forma de vender las voces de los músicos para generar música con IA y dividir las tarifas de licencia con el artista. A diferencia de Drake, quien fue deepfakeado por IA este año y ha hablado en contra de utilizar IA para recrear sus voces, algunos artistas como Grimes lo ven como una nueva forma de colaborar con los fanáticos y dividir los royalties de las creaciones de IA con sus seguidores.

Si el contenido generado por IA está aquí para quedarse, entonces la verdadera pregunta es quién se beneficia del contenido generado por IA y a costa de quién.

5. Prometió cambiar nuestra relación con el trabajo

La promesa de aumentar la productividad laboral ha sido un punto de venta importante para las empresas de tecnología que lanzaron herramientas de IA este año. Microsoft, Google, Zoom, Slack, Grammarly y otros han destacado la capacidad de la IA generativa para reducir las tareas a una fracción del tiempo.

Pero con estas herramientas todavía en su infancia, y muchas de ellas en etapas de prueba o solo disponibles para clientes de pago, los efectos a gran escala aún están por verse.

Lo que sabemos es que las herramientas de IA generativa para el trabajo no son confiables, al menos no sin supervisión humana, lo que complica la promesa de productividad. Definitivamente deberías verificar sus respuestas y debes tener cuidado con lo que compartes con LLMs como ChatGPT. Samsung se dio cuenta de la manera difícil cuando sus empleados compartieron inadvertidamente información propietaria con ChatGPT sin saber que sus entradas podrían haber sido utilizadas para entrenar el modelo.

Finalmente, OpenAI lanzó una función que permitió a los usuarios optar por no compartir sus datos con ChatGPT e introdujo versiones empresariales para mantener seguras y protegidas las transacciones comerciales, a menos que haya una brecha de datos, por supuesto.