La IA lo hizo Excusas, Alteraciones y Desinformación

Mantente informado sobre el siempre cambiante campo de la inteligencia artificial con nuestro resumen semanal de avances'.

En este artículo, cubriremos la IA y su juego de culpar, las pistas de IA de Apple y la aceptación de la IA por parte de la Generación Z que causa la pérdida de empleos.

Además de “el perro se comió mi tarea”, “no vi el correo electrónico” y “fue un descuido honesto”, ahora puedes agregar “la IA lo hizo” a la lista de excusas que la gente puede usar para evitar asumir responsabilidad por algo que hicieron o dijeron. 🤷‍♀️

Por ejemplo: Una estación de noticias australiana se disculpó recientemente después de mostrar una foto alterada de un miembro del parlamento que supuestamente había sido editada por una herramienta de IA en Adobe Photoshop, según The Sydney Morning Herald. Sin embargo, esta disculpa y la excusa de “la IA lo hizo” vinieron solo después de que la política, MP Georgie Purcell, publicara la foto original junto con la editada en las redes sociales. 🖼️

El error de Photoshop 😱

La estación de noticias, 9News, lo llamó un “error de gráficos” y lo atribuyó a Adobe en lugar de un error humano. El director de noticias, Hugh Nailon, afirmó que “la automatización de Photoshop creó una imagen que no era consistente con la original”. Adobe, por otro lado, refutó esta afirmación y dijo que cualquier cambio realizado en la imagen habría requerido “intervención y aprobación humana”. Finalmente, la estación de noticias admitió que efectivamente hubo “intervención humana en la decisión”.

Si bien es cierto que las herramientas de IA pueden realizar ajustes similares a los filtros de selfies, esto no justifica la falla de la estación de noticias al verificar la imagen en comparación con la original. El profesor Rob Nicholls de la Universidad de Tecnología de Sídney explicó que usar la IA sin controles editoriales sólidos corre el riesgo de cometer errores significativos, y agregó que la IA puede replicar sesgos existentes. Y no es casualidad que estos problemas tiendan a ser de género. 🚺

🔍 Preguntas y respuestas

P: ¿Cómo pueden las herramientas de IA replicar sesgos existentes?

R: Las herramientas de IA aprenden de los datos en los que se entrenan, y si esos datos contienen sesgos, la IA puede perpetuar y amplificar esos sesgos. Por ejemplo, si un conjunto de datos contiene predominantemente imágenes de mujeres con atuendos reveladores, una herramienta de IA podría aprender a enfatizar características reveladoras al editar imágenes de mujeres. Esto puede llevar a sesgos y representaciones de género incorrectas.

P: ¿Qué medidas se pueden tomar para evitar que la IA perpetúe sesgos?

R: Para evitar que la IA perpetúe sesgos, es esencial asegurarse de que los datos de entrenamiento sean diversos, representativos y estén libres de sesgos. Además, el desarrollo de controles editoriales sólidos y pautas puede ayudar a mitigar el riesgo de resultados sesgados de las herramientas de IA.

Echale la culpa a los deepfakes 🎭

Los políticos no son ajenos a culpar a los deepfakes de IA por fotos, videos y audio “incriminadores” que pueden haber capturado sus palabras o acciones reales, según The Washington Post. Incluso el ex presidente Donald Trump desestimó un anuncio en Fox News que mostraba videos de sus conocidos errores públicos, asegurando que las imágenes habían sido generadas por IA. Sin embargo, muchas personas independientes presenciaron estas imágenes en la vida real.

Esta tendencia plantea la pregunta de cómo podemos separar los hechos de la ficción cuando los deepfakes y la manipulación de IA se vuelven comunes. Hany Farid, profesor en la Universidad de California en Berkeley, describió esto como el “dividendo del mentiroso” creado por la IA. Proporciona una negación plausible para aquellos atrapados diciendo o haciendo algo indeseable, usando la excusa de que la IA es la responsable.

¿Es real o IA? 🤔

Con el aumento de audio, video y texto generado por IA, se vuelve cada vez más difícil distinguir entre lo que es real y lo que es creado por IA. Si bien no existe una herramienta mágica que pueda identificar instantáneamente el contenido generado por IA, hay algunas consideraciones esenciales que debes tener en cuenta.

Según el proyecto de alfabetización en noticias no partidista y sin fines de lucro, la IA “señala un cambio en la naturaleza de la evidencia”. Esto significa que no debemos confiar automáticamente en todo lo que vemos y escuchamos en las noticias. Verificar las fuentes, contrastar con información confiable y abordar las imágenes virales con escepticismo son pasos cruciales para navegar en la era de la IA y la desinformación.

🔍 Preguntas y respuestas

P: ¿Cómo puedo verificar la autenticidad de imágenes o videos virales?

R: Cuando te encuentres con imágenes o videos virales, es importante verificar su autenticidad buscando fuentes confiables. Realiza una búsqueda de imágenes inversa para ver si la imagen ha sido utilizada antes o si coincide con la fuente original. Ten precaución al aceptar contenido no verificado y abórdalo con escepticismo si no puedes encontrar una confirmación confiable.

P: ¿Puede la tecnología de IA crear imágenes y videos falsos completamente convincentes?

R: Si bien la tecnología de IA ha avanzado significativamente en la generación de contenido visual realista, todavía existen limitaciones. Los algoritmos de deepfake pueden crear imágenes y videos altamente convincentes, pero a menudo hay pistas visuales sutiles o artefactos que pueden ayudar a identificarlos. Sin embargo, a medida que la tecnología evoluciona, se hace cada vez más difícil detectar los falsos generados por IA, lo que enfatiza la necesidad de pensamiento crítico y verificación.

IA en el trabajo 💼

IA no es solo fuente de controversia y desinformación; también está transformando el lugar de trabajo. Según una encuesta reciente realizada por el Boston Consulting Group, el 85% de los ejecutivos planean invertir más en IA y tecnología generativa de IA en 2024. Estos ejecutivos esperan aumentar la productividad y ahorrar costos al adoptar estas herramientas. Sin embargo, todavía existen desafíos e inquietudes por abordar.

Los ejecutivos expresaron insatisfacción con el progreso de sus organizaciones en la adopción de IA, destacando la falta de talento, hojas de ruta poco claras y la ausencia de una estrategia general para un uso responsable como barreras hacia el éxito. Además, la encuesta reveló que el 46% de la fuerza laboral necesitará actualizar sus habilidades en los próximos tres años debido a la generativa IA. Sin embargo, solo el 6% de las empresas han capacitado a más de una cuarta parte de su personal en estas herramientas.

Implementar los principios de IA responsable y centrarse en la gestión del cambio son aspectos cruciales de una adopción de IA exitosa. Si bien la IA tiene un increíble potencial, es importante abordar su implementación de manera reflexiva y ética.

🔍 P&R

P: ¿Cómo pueden las empresas garantizar una adopción responsable de la IA?

R: La adopción responsable de la IA implica varios aspectos clave. Las empresas deben priorizar la transparencia y la responsabilidad en los sistemas de IA, asegurándose de que sean explicables y estén sujetos a pautas éticas. Además, deben invertir en programas de capacitación y actualización continuos para preparar a la fuerza laboral para la integración de IA. Las evaluaciones regulares y las auditorías de los sistemas de IA pueden ayudar a identificar y mitigar posibles sesgos o consecuencias no deseadas.

P: ¿Cuáles son algunos ejemplos de aplicaciones de IA en el lugar de trabajo?

R: La IA se utiliza de diversas formas en el lugar de trabajo. Puede automatizar tareas repetitivas, mejorar la toma de decisiones mediante análisis de datos, mejorar el servicio al cliente con chatbots, optimizar las cadenas de suministro y ayudar en la investigación y desarrollo. También se están utilizando herramientas de IA como ChatGPT para apoyar proyectos creativos y ayudar con tareas como la búsqueda de información y la investigación.

El futuro de la IA: De los deepfakes al uso responsable 🚀

A medida que la tecnología de IA continúa evolucionando, su impacto en la sociedad y la fuerza laboral aumentará sin duda. Abordar las preocupaciones sobre los deepfakes y la desinformación será crucial para mantener la confianza y la integridad en los medios de comunicación. Lograr un equilibrio entre los avances tecnológicos y su uso responsable será fundamental para enfrentar los desafíos que se avecinan.

La reciente actualización de Google a su IA conversacional Bard, que permite a los usuarios generar imágenes a través de indicaciones de texto, muestra el continuo desarrollo de las capacidades de IA. Empresas como Apple también dan indicios de sus proyectos de IA, prometiendo emocionantes novedades para el próximo año. Mientras tanto, los esfuerzos regulatorios, como la propuesta de la FCC para combatir las llamadas telefónicas generadas por IA, tienen como objetivo proteger a los consumidores del uso malicioso de la tecnología de IA.

Con investigaciones y colaboración continuas, la IA puede ser aprovechada para fines positivos, como impulsar la creatividad, mejorar la productividad y mejorar las experiencias de los usuarios. El estudio de OpenAI sobre armas biológicas dañinas y su compromiso con prácticas de IA responsables demuestran los esfuerzos de la industria para abordar los posibles riesgos asociados con los avances de la IA.

En conclusión, la creciente presencia de la IA exige que permanezcamos vigilantes en la verificación de información, exijamos responsabilidad a las organizaciones por su uso de la IA y fomentemos una adopción responsable de la AI. De esta manera, podemos aprovechar al máximo el potencial de la IA mientras nos protegemos de sus riesgos.

🔎 ReferenciasThe Sydney Morning HeraldTechCrunchThe New York TimesThe Washington PostBusiness InsiderForrester ResearchENBLE (Informe de Lisa Lacy) – Propuesta de la FCCCNNYouMailEstudio de OpenAIInforme del Boston Consulting GroupENBLE (Informe de Lisa Lacy) – Entrada de blog de AmazonThe New York TimesEstudio de EduBirdie