💡 IA Ética Lanzamiento de Programa de Certificación en Entrenamiento Justo para Apoyar el Abastecimiento Ético de Datos

Ed Newton-Rex renuncia a Startup Stability AI debido a preocupaciones éticas respecto a la recolección de datos de entrenamiento. Lanza Fairly Trained, una organización sin fines de lucro para combatir el web scraping de startups.

El ejecutivo de IA se transforma en un cruzado de la IA, defendiendo los derechos de los artistas

A medida que el mundo de la inteligencia artificial (IA) sigue expandiéndose, también crecen las preocupaciones sobre las prácticas éticas en la industria. Ed Newton-Rex, ex diseñador jefe de IA en TikTok, ha lanzado una nueva organización sin fines de lucro llamada Fairly Trained. Esta organización tiene como objetivo abordar el problema ético asociado con los modelos de IA generativos al proporcionar a las empresas una herramienta de toma de decisiones conocida como la Certificación L.

🔍 El Problema: Obtención Ética de Datos de Entrenamiento

Uno de los principales problemas con los modelos de IA es la obtención de datos de entrenamiento. Muchas empresas dependen del rastreo de datos sin licencia o consentimiento adecuado, lo que plantea preocupaciones sobre el trato justo a los creadores. Newton-Rex reconoce este problema y tiene como objetivo proporcionar mejores herramientas de toma de decisiones para aquellos que deseen utilizar modelos de IA generativos con obtención ética de datos.

🌟 Presentando Fairly Trained y la Certificación L

Fairly Trained ofrece un programa de certificación para empresas de IA que licencian sus datos de entrenamiento. Similar a las etiquetas de certificación de “comercio justo” que se encuentran en el café, la Certificación L significa que los datos de entrenamiento de una empresa han sido explícitamente licenciados, están en dominio público, se ofrecen bajo una licencia abierta apropiada o pertenecen a la propia empresa. Nueve empresas, incluyendo Bria AI y LifeScore Music, han recibido la certificación, mientras que otras están cerca de completarla.

💰 El Costo de la Certificación

Para obtener la Certificación L, las empresas deben pagar una tarifa que oscila entre $500 y $6,000, dependiendo de su tamaño. Si bien algunos pueden ver esto como un costo adicional, las empresas que han pasado por el proceso de certificación han enfatizado su importancia. Yair Adato, CEO de Bria AI, compara los modelos construidos con datos no licenciados con plataformas de intercambio de archivos entre usuarios como Napster y The Pirate Bay. En contraste, los datos con licencia permiten a las empresas operar de manera conforme, similar a Spotify y otras plataformas de transmisión legítimas.

🌐 El Impacto y los Desarrollos Futuros

Aunque el programa de certificación de Fairly Trained es un paso en la dirección correcta, todavía está en sus etapas iniciales y el movimiento para cambiar las prácticas de rastreo de datos de la industria de la IA está ganando impulso. Actualmente, Fairly Trained es una operación unipersonal dirigida por Ed Newton-Rex, pero ha recibido apoyo de grupos comerciales como la Asociación de Editores Estadounidenses y la Asociación de Editores de Música Independiente, así como de empresas como Universal Music Group.

Fairly Trained no es la única organización que trabaja para estandarizar la etiquetación de productos de IA con información sobre sus fuentes de datos. Otro ejemplo es la Iniciativa de Autoridad de Contenido, liderada por Adobe, que se enfoca en rastrear la autenticidad de las imágenes.

❓ P&R: Respondiendo las Preguntas Adicionales de los Lectores

P: ¿Por qué es importante la obtención ética de datos para los modelos de IA? R: La obtención ética de datos garantiza que los creadores sean tratados de manera justa, ya que su trabajo está debidamente licenciado y se respetan sus derechos. También ayuda a prevenir el rastreo no autorizado de datos, lo que puede generar problemas legales y socavar la integridad de los modelos de IA.

P: ¿Cómo pueden beneficiarse las empresas al obtener la Certificación L? R: Las empresas certificadas pueden demostrar su compromiso con la obtención ética de datos, protegiéndose de posibles problemas legales y generando confianza con los consumidores. Además, formar parte de un movimiento hacia una mayor responsabilidad y equidad en la industria de la IA puede mejorar su reputación y atraer socios y clientes con ideas afines.

🔎 Lecturas y Referencias Adicionales

  1. Link1 – Título del Artículo
  2. Link2 – Título del Artículo
  3. Link3 – Título del Artículo
  4. Link4 – Título del Artículo
  5. Link5 – Título del Artículo

🙌 Participa y Comparte

¿Qué piensas de Fairly Trained y el programa de Certificación L? ¿Crees que la obtención ética de datos se convertirá en una práctica estándar en la industria de la IA? ¡Comparte tus opiniones y vamos a discutir!

📣 ¡No olvides compartir este artículo en tus plataformas de redes sociales favoritas para difundir la importancia de las prácticas éticas de IA! Juntos, podemos crear una industria de IA más responsable y justa.