馃挕 IA 脡tica Lanzamiento de Programa de Certificaci贸n en Entrenamiento Justo para Apoyar el Abastecimiento 脡tico de Datos

Ed Newton-Rex renuncia a Startup Stability AI debido a preocupaciones 茅ticas respecto a la recolecci贸n de datos de entrenamiento. Lanza Fairly Trained, una organizaci贸n sin fines de lucro para combatir el web scraping de startups.

El ejecutivo de IA se transforma en un cruzado de la IA, defendiendo los derechos de los artistas

A medida que el mundo de la inteligencia artificial (IA) sigue expandi茅ndose, tambi茅n crecen las preocupaciones sobre las pr谩cticas 茅ticas en la industria. Ed Newton-Rex, ex dise帽ador jefe de IA en TikTok, ha lanzado una nueva organizaci贸n sin fines de lucro llamada Fairly Trained. Esta organizaci贸n tiene como objetivo abordar el problema 茅tico asociado con los modelos de IA generativos al proporcionar a las empresas una herramienta de toma de decisiones conocida como la Certificaci贸n L.

馃攳 El Problema: Obtenci贸n 脡tica de Datos de Entrenamiento

Uno de los principales problemas con los modelos de IA es la obtenci贸n de datos de entrenamiento. Muchas empresas dependen del rastreo de datos sin licencia o consentimiento adecuado, lo que plantea preocupaciones sobre el trato justo a los creadores. Newton-Rex reconoce este problema y tiene como objetivo proporcionar mejores herramientas de toma de decisiones para aquellos que deseen utilizar modelos de IA generativos con obtenci贸n 茅tica de datos.

馃専 Presentando Fairly Trained y la Certificaci贸n L

Fairly Trained ofrece un programa de certificaci贸n para empresas de IA que licencian sus datos de entrenamiento. Similar a las etiquetas de certificaci贸n de 鈥渃omercio justo鈥 que se encuentran en el caf茅, la Certificaci贸n L significa que los datos de entrenamiento de una empresa han sido expl铆citamente licenciados, est谩n en dominio p煤blico, se ofrecen bajo una licencia abierta apropiada o pertenecen a la propia empresa. Nueve empresas, incluyendo Bria AI y LifeScore Music, han recibido la certificaci贸n, mientras que otras est谩n cerca de completarla.

馃挵 El Costo de la Certificaci贸n

Para obtener la Certificaci贸n L, las empresas deben pagar una tarifa que oscila entre $500 y $6,000, dependiendo de su tama帽o. Si bien algunos pueden ver esto como un costo adicional, las empresas que han pasado por el proceso de certificaci贸n han enfatizado su importancia. Yair Adato, CEO de Bria AI, compara los modelos construidos con datos no licenciados con plataformas de intercambio de archivos entre usuarios como Napster y The Pirate Bay. En contraste, los datos con licencia permiten a las empresas operar de manera conforme, similar a Spotify y otras plataformas de transmisi贸n leg铆timas.

馃寪 El Impacto y los Desarrollos Futuros

Aunque el programa de certificaci贸n de Fairly Trained es un paso en la direcci贸n correcta, todav铆a est谩 en sus etapas iniciales y el movimiento para cambiar las pr谩cticas de rastreo de datos de la industria de la IA est谩 ganando impulso. Actualmente, Fairly Trained es una operaci贸n unipersonal dirigida por Ed Newton-Rex, pero ha recibido apoyo de grupos comerciales como la Asociaci贸n de Editores Estadounidenses y la Asociaci贸n de Editores de M煤sica Independiente, as铆 como de empresas como Universal Music Group.

Fairly Trained no es la 煤nica organizaci贸n que trabaja para estandarizar la etiquetaci贸n de productos de IA con informaci贸n sobre sus fuentes de datos. Otro ejemplo es la Iniciativa de Autoridad de Contenido, liderada por Adobe, que se enfoca en rastrear la autenticidad de las im谩genes.

鉂 P&R: Respondiendo las Preguntas Adicionales de los Lectores

P: 驴Por qu茅 es importante la obtenci贸n 茅tica de datos para los modelos de IA? R: La obtenci贸n 茅tica de datos garantiza que los creadores sean tratados de manera justa, ya que su trabajo est谩 debidamente licenciado y se respetan sus derechos. Tambi茅n ayuda a prevenir el rastreo no autorizado de datos, lo que puede generar problemas legales y socavar la integridad de los modelos de IA.

P: 驴C贸mo pueden beneficiarse las empresas al obtener la Certificaci贸n L? R: Las empresas certificadas pueden demostrar su compromiso con la obtenci贸n 茅tica de datos, protegi茅ndose de posibles problemas legales y generando confianza con los consumidores. Adem谩s, formar parte de un movimiento hacia una mayor responsabilidad y equidad en la industria de la IA puede mejorar su reputaci贸n y atraer socios y clientes con ideas afines.

馃攷 Lecturas y Referencias Adicionales

  1. Link1 鈥 T铆tulo del Art铆culo
  2. Link2 鈥 T铆tulo del Art铆culo
  3. Link3 鈥 T铆tulo del Art铆culo
  4. Link4 鈥 T铆tulo del Art铆culo
  5. Link5 鈥 T铆tulo del Art铆culo

馃檶 Participa y Comparte

驴Qu茅 piensas de Fairly Trained y el programa de Certificaci贸n L? 驴Crees que la obtenci贸n 茅tica de datos se convertir谩 en una pr谩ctica est谩ndar en la industria de la IA? 隆Comparte tus opiniones y vamos a discutir!

馃摚 隆No olvides compartir este art铆culo en tus plataformas de redes sociales favoritas para difundir la importancia de las pr谩cticas 茅ticas de IA! Juntos, podemos crear una industria de IA m谩s responsable y justa.