El 56% de los profesionales no están seguros si sus empresas tienen pautas éticas para el uso de la IA

Escala en un bloque

Aunque la IA ha estado presente desde la década de 1950, ha experimentado un crecimiento tremendo en el último año. Los gigantes tecnológicos han estado implementando la IA en sus productos y servicios, mientras que las personas la están utilizando para simplificar sus vidas un poco

Según Deloitte, el 74% de las empresas encuestadas en su segundo informe de Ética y Confianza en Tecnología han comenzado a probar la IA generativa, mientras que el 65% ha comenzado a utilizarla internamente. La creciente conciencia de las nuevas capacidades de la IA ha llevado a la pregunta apremiante de cómo las organizaciones pueden utilizar esta tecnología de manera ética. 

También: La ética de la IA generativa: Cómo podemos aprovechar esta poderosa tecnología

Deloitte entrevistó a 26 especialistas de diversas industrias para recopilar información sobre cómo los líderes empresariales están considerando preocupaciones relacionadas con el uso ético de tecnologías emergentes, incluida la IA generativa. 

Luego, la empresa probó hipótesis y entregó una encuesta de 64 preguntas a más de 1,700 empresas y profesionales técnicos para obtener más información. 

El informe, realizado por Beena Ammanath, directora gerente de Deloitte Consulting LLP y líder de la práctica de Ética y Confianza en Tecnología de Deloitte, se refiere a las tecnologías emergentes como: tecnologías cognitivas (incluida la IA general y generativa y los chatbots), realidad digital, experiencias ambientales, vehículos autónomos, computación cuántica, tecnología de registros distribuidos y robótica. 

Según la encuesta, el 39% de los encuestados, que incluye líderes empresariales y desarrolladores de tecnologías emergentes, creían que las tecnologías cognitivas tenían el mayor potencial para el bien social, en comparación con el 12% en realidad digital y el 12% en experiencias ambientales. 

También: La IA está transformando organizaciones en todas partes. Cómo estas 6 empresas lideran el camino

Sin embargo, el 57% de los encuestados también consideró que las tecnologías cognitivas tenían el mayor potencial de riesgo ético serio. 

La estadística más preocupante es que más de la mitad de los encuestados (56%) dijo que su “empresa no tiene o no está seguro de tener principios éticos que guíen el uso de la IA generativa”.

Gráfico sobre tecnología emergente de Deloitte

En comparación con el informe de Deloitte en 2022 sobre ética y confianza en tecnologías emergentes, el informe de este año revela que “las organizaciones se encuentran luchando con nuevos problemas éticos planteados por la adopción a gran escala de esta nueva tecnología”. 

Estos problemas están relacionados con las preocupaciones sobre cómo las empresas y organizaciones están utilizando estas tecnologías. 

A pesar de los muchos beneficios de la IA, el 22% de los encuestados se preocupaba por la privacidad de los datos, mientras que el 14% mencionó la transparencia sobre cómo se entrena la IA con datos para producir sus resultados. 

También: 3 formas de asegurar el mejor socio de IA para tu empresa

La contaminación de datos, así como la propiedad intelectual y los derechos de autor, fueron preocupaciones que representaron el 12% de los encuestados. La contaminación de datos es la “contaminación” de conjuntos de datos de entrenamiento por parte de actores malintencionados y puede llevar a resultados inexactos producidos por la IA. 

Gráfico de preocupaciones sobre IA

El informe de Deloitte también detalló los tipos de daño que los encuestados creen que podrían surgir cuando no se toman en serio violaciones éticas. 

El daño a la reputación fue la mayor fuente de preocupación para el 38% de los encuestados, seguido del daño humano como diagnósticos erróneos o violaciones de privacidad de datos (27%), sanciones regulatorias como infracción de derechos de autor (17%), daño financiero (9%) y insatisfacción de los empleados (9%). 

Estos daños son evidentes en las numerosas demandas que ya se han presentado debido a violaciones de privacidad, infracción de derechos de autor y otros problemas relacionados con el uso poco ético de la IA. 

También: Cómo la IA generativa de confianza puede mejorar la experiencia del cliente conectado

Entonces, ¿cómo pueden las empresas asegurarse de usar la IA de manera segura? Deloitte enumera un enfoque de varios pasos para ayudar a las empresas:

  • Exploración: Las empresas pueden comenzar permitiendo a los propietarios de productos, líderes comerciales y profesionales de IA/ML explorar la IA generativa a través de talleres para ver cómo podría crear valor para sus negocios. De esta manera, las empresas pueden reconocer los costos y beneficios de incorporar IA en sus negocios.
  • Base: Las empresas podrían comprar o desarrollar plataformas de IA para implementar la IA generativa en sus negocios. Del total de encuestados, el 30% de las empresas elegidas por los encuestados eligieron utilizar capacidades existentes con importantes plataformas de IA. El 8% de los encuestados crearon sus propias plataformas de IA internas, mientras que el 5% decidió no utilizar IA generativa.
  • Gobernanza: Crear estándares y protocolos para el uso de IA podría minimizar los impactos potencialmente dañinos de la IA, por lo que las empresas deben determinar qué tipos de principios éticos planean mantener.
  • Capacitación y educación: Las empresas podrían exigir capacitaciones que describan los principios éticos del uso de IA. Además, las capacitaciones técnicas que educan a los empleados sobre el uso de una variedad de LLMs podrían proporcionar a las empresas una mayor orientación sobre el uso ético de la IA.
  • Pilotos: Ingenieros y líderes de productos podrían realizar experimentos en una variedad de casos de uso para probar pruebas de concepto y programas piloto, y luego eliminar aspectos que sean demasiado arriesgados.
  • Implementación: Las empresas deben redactar un plan para introducir un producto recién mejorado en el mercado y asignar responsabilidad por la implementación y propiedad del producto. La empresa también debe contar con un equipo de expertos preparados para abordar cualquier problema que pueda surgir. La transparencia también es crucial en este paso, ya que las empresas deben explicar cómo se ingresan los datos del usuario en el modelo, cómo el modelo alcanza su resultado y qué tan probable es que el modelo alucine.
  • Auditoría: Según un entrevistado, las empresas deberán modificar sus políticas según los riesgos del uso de IA. Esto puede variar de una empresa a otra, ya que no todas las organizaciones incorporarán IA para el mismo caso de uso.

“Cuanto antes las empresas trabajen juntas para identificar los riesgos y establecer una gobernanza desde el principio, mejor podría ser su capacidad para ayudar a generar valor para los accionistas, elevar sus marcas, crear nuevos mercados y contribuir a construir un mundo más equitativo”, dijo Ammanath.