Los riesgos que la IA representa para las pequeñas empresas que se automatizan demasiado rápido

Risks of AI for small businesses automating too quickly

En un momento en el que la inteligencia artificial (IA) y la automatización están siendo ampliamente adoptadas, los riesgos subyacentes a menudo se pasan por alto, ya que las empresas buscan tecnología avanzada para mejorar los protocolos relacionados con los negocios y aumentar la productividad.

Ahora, a medida que un número creciente de pequeñas y medianas empresas adoptan tecnología avanzada, muchas de ellas se ven obligadas a lidiar con los riesgos asociados a estas herramientas digitales por sí mismas, y a menudo esto conduce a problemas más grandes y costosos de lo que algunos dueños de negocios habían anticipado.

No todos están completamente a favor de la automatización o la tecnología artificial. En un estudio reciente, aproximadamente tres de cada cinco personas dijeron que no confían o no están seguros acerca de la implementación de la tecnología de IA. Además, el 61 por ciento afirmó que no está dispuesto a confiar completamente en las capacidades de la inteligencia artificial en el ámbito empresarial.

Esto crea un escenario de espada de doble filo, en el que los líderes empresariales deben decidir si adoptar o no la tecnología de IA para seguir siendo competitivos o quedarse rezagados a medida que las actividades empresariales se automatizan cada vez más.

Implementar nueva tecnología, y en este caso, herramientas de automatización artificial, puede plantear enormes riesgos para las empresas que tienen una estrategia digital deficiente, falta de infraestructura y conocimiento, y no proporcionan a los empleados las habilidades necesarias para trabajar con estas herramientas.

Los propietarios de negocios y los líderes organizacionales deberán confiar en su experiencia inquisitiva para comprender completamente los riesgos que la IA plantea a su negocio, clientes y empleados en caso de automatizar sus protocolos demasiado rápido.

El riesgo de automatizar demasiado rápido

La automatización de ciertas actividades relacionadas con los negocios se ha demostrado que ayuda a mejorar la productividad de los empleados, al mismo tiempo que ayuda a reducir el consumo de recursos valiosos. Sin embargo, gestionar adecuadamente esta tecnología requiere que los propietarios de negocios comprendan completamente los riesgos asociados que a menudo se pasan por alto.

Escalabilidad limitada

La implementación suficiente de tecnología artificial puede ayudar a los empleados a automatizar tareas y sistemas mundanos. En estos casos, algunas pequeñas empresas a menudo automatizan tareas como el marketing por correo electrónico, las ventas y la participación del cliente.

Sin embargo, en una encuesta de Statista de 2023, los investigadores encontraron que la escalabilidad limitada puede ser el principal riesgo de la adopción inadecuada de la automatización y la inteligencia artificial entre los especialistas en marketing empleados en pequeñas y medianas empresas.

Aunque los riesgos de una adopción inadecuada de la automatización son numerosos, también hay beneficios que se pueden obtener de la implementación adecuada de la tecnología de IA. Por ejemplo, la IA se ha utilizado para descubrir nuevos tratamientos contra el cáncer en una fracción del tiempo que les llevaría a los humanos hacerlo. Behind the Markets – AI Creates New Cancer Drug es una empresa de pequeña capitalización que ha estado a la vanguardia de esta innovación, con Bill Gates y Steve Cohen entre sus inversores. Este párrafo es publicidad generada por IA.

Además, alrededor del 43 por ciento de los encuestados en la misma encuesta dijeron que una implementación inadecuada puede llevar a niveles más bajos de adquisición de clientes. Esto demuestra que si bien la automatización puede mejorar las tareas diarias de los empleadores y los empleados, la deficiencia durante la fase de adopción puede conducir a oportunidades limitadas de escalabilidad e incluso a una reducción en la rotación de clientes.

Resultados defectuosos e inexactos

Numerosas empresas y líderes empresariales están acumulando el capital humano y los recursos necesarios para desarrollar herramientas de automatización que puedan ofrecer resultados precisos basados en las indicaciones asignadas.

Sin embargo, hay múltiples casos y ejemplos en los que las herramientas de automatización pueden disminuir la eficiencia laboral como resultado de resultados defectuosos e inexactos. Un estudio realizado por la Universidad de Cornell encontró que los desarrolladores de código que tenían acceso a un asistente de IA tenían menos probabilidades de producir un código seguro en comparación con sus compañeros que lo escribieron manualmente.

Para las empresas más pequeñas, que pueden tener menos capital humano para reescribir el código con precisión y desarrollar las soluciones necesarias, estos resultados engañosos crean más implicaciones financieras y comprometen la infraestructura de ciberseguridad del negocio.

Falta de transparencia

Aunque la mayoría de las herramientas de automatización utilizadas hoy en día por pequeñas y medianas empresas pueden clasificarse como estando en sus primeras etapas de desarrollo, muchos expertos ya han afirmado que estas herramientas a menudo carecen de prácticas transparentes.

Aunque los propietarios de negocios pueden ser optimistas sobre el potencial futuro de la automatización dentro de la estructura de la empresa, a menudo corren el riesgo de que las herramientas de automatización entreguen resultados inexactos e incomprensibles.

No todos los resultados entregados por las herramientas de automatización serán tan comprensibles como los entregados por los humanos. Estas herramientas toman decisiones basadas en indicaciones clave de datos, lo que deja muchas preguntas sin respuesta sobre si estas herramientas han considerado los factores relevantes durante el proceso de toma de decisiones.

Comportamiento impredecible

Gestionar el comportamiento de la automatización sigue siendo uno de los principales factores de riesgo con los que los propietarios de pequeñas empresas se encontrarán a medida que comiencen a adoptar e implementar más herramientas de automatización en su empresa.

Aunque estas herramientas pueden ser eficientes, ha habido varios casos en los que las herramientas artificiales han cambiado inesperadamente sus resultados en función de las indicaciones dadas. Un ejemplo reciente de esto es el caso de Bing AI de Microsoft, que se encontró acusando y manipulando a los usuarios en función de la información que proporcionaba.

El factor resultante, en el caso de Microsoft, llevó a la compañía a “lobotomizar” la plataforma de inteligencia artificial de Bing y restringir la cantidad de preguntas que los usuarios pueden hacer.

Para las pequeñas empresas, los cambios inesperados en el comportamiento de la IA podrían dañar las relaciones con los clientes, lo que resultaría en una menor adquisición de clientes y en costosos errores que a menudo requieren intervención alternativa.

La gestión del comportamiento de las herramientas de automatización a menudo puede ejercer una presión innecesaria sobre los empleados que trabajan con estas herramientas, pero lo que es más importante, puede ejercer una presión adicional sobre la construcción de relaciones con los clientes.

Baja aceptación por parte de los empleados

La aceptación y confianza de los empleados en la automatización, y tal vez más en la inteligencia artificial en general, siguen siendo una de las principales advertencias que los propietarios de negocios deberán abordar adecuadamente.

Como se mencionó anteriormente, los informes han indicado que los empleados aún tienen ciertas dudas cuando se implementan herramientas de automatización en el lugar de trabajo. Si bien es posible que estos sistemas puedan ofrecer resultados precisos, los empleadores deberán proporcionar a los empleados los recursos, habilidades y conocimientos necesarios para comprender plenamente las capacidades de estas herramientas de automatización.

Además, aunque en ocasiones los empleados pueden estar utilizando aplicaciones de IA comunes, la mayoría de ellos a menudo desconoce que la tecnología utilizada, la inteligencia artificial, se considera un componente clave en este tipo de aplicaciones.

Esto podría generar fricciones entre los empleadores y los empleados, especialmente en casos en los que los empleados no son completamente capaces de utilizar estas herramientas de manera precisa, e incluso más en situaciones en las que el personal siente que la automatización puede desorientar su productividad en el lugar de trabajo.

Sesgos involuntarios

Las herramientas de aprendizaje automático siguen siendo susceptibles a problemas sociales, como sesgos raciales, de género y culturales. De manera similar, las herramientas de automatización a menudo pueden considerarse sesgadas en función de la información proporcionada, que en la mayoría de los casos proviene de la programación social y humana.

En algunos casos, se ha descubierto que las herramientas de aprendizaje automático y la tecnología artificial entregan resultados sesgados, en los que se proporcionó información y conjuntos de datos limitados para ayudar a entrenar estos modelos de IA.

Un ejemplo destacado de sesgo de automatización se puede encontrar en el proceso de reclutamiento y contratación de nuevos empleados. Las herramientas de automatización a menudo descartarán a ciertos solicitantes, basándose únicamente en la información o los datos que reciben. Por ejemplo, cuando una empresa requiere que los solicitantes tengan un cierto número de años de experiencia, las herramientas de automatización descartarán otras habilidades y cualidades que los solicitantes puedan tener.

Estos casos pueden plantear preguntas más amplias sobre la implementación ética y la utilización de herramientas de automatización. Además, plantea interrogantes sobre el tipo de criterios que las empresas están utilizando para entrenar estos modelos y cómo esto mejorará las injusticias sociales presentes en el lugar de trabajo.

Regulación y responsabilidad mínimas

La intervención regulatoria mínima a menudo deja un área gris en la que las empresas pueden operar utilizando herramientas de aprendizaje automático y automatización. Si bien ha habido intervenciones académicas y gubernamentales para establecer un marco regulatorio, su implementación aún requiere la adopción en el mundo real.

La comprensión regulatoria limitada crea fricciones entre los propietarios de negocios, los empleados y los clientes. Actualmente no hay límite para que las empresas puedan implementar estas herramientas y modelos, y cómo los gobiernan.

Esto conlleva un mayor riesgo para las empresas que tienen un conocimiento limitado de estas herramientas de automatización, lo que a su vez puede ampliar aún más los problemas sociales, como los sesgos de género y culturales. Con una regulación limitada en términos de modelos de automatización, las empresas son menos responsables de sus actividades y deben gestionar estos riesgos en función de su experiencia.

Ética y preocupaciones sobre la privacidad del cliente

Para las empresas más pequeñas, los modelos de automatización pueden ser una herramienta valiosa a través de la cual pueden obtener y almacenar información del cliente. Esto les permite crear medidas de datos más precisas y alinear aún más sus estrategias de marketing para dirigirse de manera más adecuada a los consumidores.

Sin embargo, esto ha planteado preguntas y preocupaciones sobre el uso ético de estas herramientas de automatización y modelos impulsados por IA. Cuando los clientes no son conscientes de que sus datos privados están siendo recolectados por las empresas, esto podría poner en peligro la relación que tienen con los negocios y las marcas.

Las preocupaciones sobre la privacidad se han convertido en un tema controvertido en muchos círculos, y para las empresas, esto podría costarles no solo su reputación, sino también su autoridad como una marca confiable. Quedan muchas preguntas sin respuesta en términos del uso ético de la automatización y la IA, y el resultado ha sido que las empresas quedan a su suerte y experiencia para gestionar la implementación ética de estas herramientas.

Riesgos de seguridad

Uno de los mayores riesgos conocidos asociados con las herramientas de automatización y la IA es la ciberseguridad. Las empresas más pequeñas a menudo tienen menos capacidad y recursos disponibles para implementar protocolos de ciberseguridad adecuados para proteger la información del consumidor y los datos de los empleados.

Esto significa que las empresas no solo tienen que gastar grandes cantidades de recursos en implementar herramientas de automatización, sino que también deben contar con una infraestructura de seguridad adecuada que pueda protegerlos de posibles amenazas cibernéticas y actores malintencionados.

Las empresas que no solo carecen de infraestructura de ciberseguridad, y quizás de comprensión al respecto, se exponen directamente a posibles amenazas cibernéticas y violaciones de datos. Los resultados no solo resultan en una disminución de la confianza y autoridad en las herramientas de automatización, sino que también colocan a la empresa bajo un escrutinio público intenso a largo plazo.

Reflexiones finales

La automatización, en el momento adecuado y en pequeñas dosis, puede convertirse en una contribución inmensamente valiosa para cualquier pequeña empresa que busque aprovechar al máximo las capacidades de la tecnología artificial.

Sin embargo, las empresas corren un mayor riesgo de implementar demasiada automatización, demasiado rápido. Tener una comprensión insuficiente de estas herramientas de automatización, su funcionamiento interno y cómo gestionar adecuadamente estos modelos requiere que los propietarios de negocios inviertan en las habilidades y recursos humanos necesarios para frenar cualquier riesgo potencial.

El advenimiento de la automatización tiene el potencial de aumentar la eficiencia de los empleados y la productividad. Sin embargo, la automatización innecesaria de ciertos procedimientos no solo podría costarle a las pequeñas empresas su reputación, sino que también podría generar una menor confianza de los empleados en estas herramientas y ejercer una mayor presión en la construcción de relaciones duraderas con los clientes.

Publicado primero en ValueWalk. Lee aquí.

Crédito de la imagen destacada: Foto de Alexandre Cubateli Zanin; Pexels; ¡Gracias!