Cinco formas de utilizar la IA de manera responsable

5 formas responsables de usar IA

Así como los profesionales han descubierto que es difícil mover sus datos de un proveedor de la nube a otro, también deben tener en cuenta los posibles costos a medida que construyen sus modelos de IA y las infraestructuras de TI que los respaldan.

El imparable avance de la inteligencia artificial (IA) generativa y la automatización tiene grandes implicaciones para los profesionales y las organizaciones para las que trabajan.

Tareas operativas están siendo automatizadas y los roles laborales están cambiando. Sin embargo, el impacto total de esta revolución en los negocios, los empleados, los clientes y la sociedad en general es casi imposible de medir.

A medida que la IA se adopta y se adapta durante el resto de la década, los efectos completos de esta transformación se harán más claros. Por ahora, cada vez más profesionales están experimentando con estas tecnologías emergentes, como ChatGPT y más.

También: Los mejores chatbots de IA: ChatGPT y otras alternativas destacadas

A medida que se llevan a cabo estas exploraciones, la IA responsable, que Accenture define como la práctica de diseñar, desarrollar e implementar IA con buenas intenciones, se vuelve cada vez más crítica.

No obstante, este requisito de responsabilidad no siempre se cumple: el informe de la consultora indica que solo el 35% de los consumidores confía en cómo las organizaciones implementan la IA.

Entonces, a medida que los profesionales comienzan a expandir el uso de la IA, ¿cómo pueden asegurarse de que ellos y sus organizaciones están utilizando esta tecnología emergente teniendo en cuenta la responsabilidad?

Esa es la prioridad clave para Carter Cousineau, vicepresidente de gobernanza de datos y modelos en Thomson Reuters, especialista en noticias e información, quien ayuda a su empresa a utilizar la IA y el aprendizaje automático de manera responsable.

Al igual que otras grandes empresas, Thomson Reuters está comenzando a explorar el potencial de muchas de estas tecnologías emergentes, especialmente la IA generativa.

Sin embargo, Cousineau afirma que una cosa ya es clara a partir de estos movimientos incipientes: “La IA responsable debe estar incorporada en la ética a lo largo de todo el ciclo de vida”.

También: El auge actual de la IA amplificará los problemas sociales si no actuamos ahora

Sus opiniones sobre la importancia de la implementación ética de la IA no se basan solo en su tiempo en Thomson Reuters.

Anteriormente, fue directora gerente del Centro para el Avance de una Inteligencia Artificial Responsable y Ética en la Universidad de Guelph. Sus intereses de investigación abarcan una variedad de temas, desde las interacciones entre humanos y computadoras hasta la confiabilidad de la IA.

Junto con sus actividades académicas, Cousineau, quien conversó con ENBLE en la reciente Cumbre Snowflake 2023 en Las Vegas, ha trabajado con startups tecnológicas, organizaciones sin fines de lucro, pequeñas empresas y compañías Fortune 500.

Desde que se unió a Thomson Reuters en septiembre de 2021, ha puesto en práctica algunas de las cosas que aprendió durante sus actividades de investigación.

“Ha sido emocionante ingresar a una corporación y pensar en cómo podemos influir y cambiar la cultura para ayudar a generar confianza”, dice.

También: La IA y las aplicaciones avanzadas están tensionando las infraestructuras tecnológicas actuales

Desde el momento en que se utiliza los datos hasta la desactivación de un modelo, su equipo global cubre el ciclo de vida de la IA y garantiza que la información y las ideas se utilicen de manera bien gobernada y ética.

Ella afirma que hay cinco cosas clave que los profesionales deben considerar si desean aprovechar la IA de manera responsable.

1. Prepárate para las regulaciones

Después de establecer los fundamentos de la IA ética en Thomson Reuters, Cousineau se asegura de que los empleados se adhieran a estos principios bien establecidos de manera continua.

Sin embargo, reconoce que diferentes líneas de negocio tienen diferentes requisitos para la IA y la automatización. Además, esas demandas cambian a medida que se ejerce más presión desde los legisladores externos.

Ya sea el Reglamento General de Protección de Datos, la Ley de IA de la UE o las normas pendientes sobre automatización, su equipo establece los controles necesarios para ayudar al personal de Thomson Reuters a innovar con datos y modelos de manera flexible, pero también segura y protegida.

“Analizamos todas esas regulaciones y nos aseguramos de que, cuando surjan nuevas normas, estemos preparados”, dice.

También: La caja de herramientas de ética de IA se actualiza para incluir más componentes de evaluación

2. Manténgase abierto al cambio

Cousineau no es partidaria de que las empresas creen una lista de verificación estandarizada para la IA y luego asuman que el trabajo está hecho.

“Tus modelos, especialmente en la IA generativa, siguen aprendiendo. Tus datos siguen transformándose y hay diferentes usos de esos datos. Entonces, crear visibilidad de tus activos de modelos de datos es enorme.”

Ella dice que la apertura al cambio en términos de obligaciones legales es crucial, pero también hay un punto en el que ese énfasis cambia, y la apertura se vuelve beneficioso operativamente también.

“Es importante que tus equipos comiencen a ver y comprender cómo construir esa cultura de IA responsable porque necesitan saber más [sobre] cómo se utilizan esos modelos de datos a través de una lente de productor o consumidor.”

También: Alerta de liderazgo: el polvo nunca se asentará y la IA generativa puede ayudar

3. Utilice evaluaciones de impacto de datos

Ya sea que un modelo se esté utilizando en la etapa de prueba de concepto para avanzar hacia la producción, Cousineau dice que Thomson Reuters verifica continuamente la IA responsable en todos los casos de uso.

Desde los primeros días de la automatización, su equipo realiza evaluaciones de impacto de datos. Este trabajo inicial ha resultado crucial a medida que han surgido nuevos casos de uso relacionados con la IA generativa.

“Nos asociamos con el asesor general y nuestro enfoque utiliza lógica de salto. Según tu caso de uso, te indicará las etapas apropiadas o las preocupaciones éticas a las que tendrías que responder y solicitará el caso de uso en cuestión”, dice.

“Ese enfoque construye una imagen de apoyo a las necesidades de privacidad, gobernanza de datos, gobernanza de modelos y ética para tu caso de uso. Y es algo que nos permite reaccionar rápidamente. Entonces, a medida que obtenemos los resultados de esa evaluación de impacto de datos, nuestro equipo trabaja de inmediato en mitigar esos riesgos dentro de varios equipos, y los riesgos son muy específicos.”

También: Entrena modelos de IA con tus propios datos para mitigar riesgos

4. Construye asociaciones de confianza

Cousineau dice que Thomson Reuters trabaja con una variedad de personas y organizaciones para garantizar que la privacidad, la seguridad y la responsabilidad estén en primer plano en todos los casos de uso de IA.

Esas asociaciones abarcan líneas de negocio y van más allá del firewall para incluir relaciones con clientes y socios tecnológicos, incluido Snowflake.

“Para mí, la IA responsable se remonta a asociarse con organizaciones de confianza. Se trata de construir una infraestructura y crear una cultura colaborativa”, dice.

“Ese trabajo consiste en poder asegurarte de que tus modelos sean transparentes, que los puedas explicar y que sean interpretables y traten a las personas y sus datos de manera justa. También se trata de considerar la sostenibilidad y la potencia informática necesaria para alimentar tus modelos.”

También: Nvidia se asocia con Snowflake para modelos de lenguaje de IA a gran escala

5. Ten en cuenta los costos financieros

Por último, a medida que comienzas a experimentar con la IA, Cousineau dice que es crucial recordar que encender los sistemas puede ser más fácil que apagarlos.

Así como los profesionales han descubierto que es difícil mover sus datos de un proveedor de nube a otro, también deben tener en cuenta los costos potenciales a medida que construyen sus modelos de IA y sus infraestructuras de TI de apoyo.

Por lo tanto, la IA responsable implica pensar en la exposición financiera a largo plazo.

También: Estas son mis 5 herramientas de IA favoritas para el trabajo

“Ten en cuenta la complejidad de los costos”, dice. “Una vez que hayas incorporado la IA generativa en tu caso de uso, y eso es algo que deseas seguir utilizando en el futuro, entonces es muy difícil migrar de ese gran modelo de lenguaje, en caso de que desees cambiar a un modelo de lenguaje diferente, porque ha aprendido de ese sistema. Entonces, el costo en el trabajo de migración es muy complejo.”