Los coches autónomos son peores detectando peatones niños, según un estudio

Coches autónomos peor detectando peatones niños, según estudio

La inteligencia artificial tiene una historia notoria de sesgos, desde sistemas de reconocimiento facial que identifican erróneamente a personas negras hasta chatbots que admiran a Hitler. En algunos casos, los resultados pueden ser mortales.

Un caso ejemplar se expuso esta semana. Según una nueva investigación, los sistemas de detección de peatones utilizados en la investigación de vehículos autónomos tienen importantes sesgos de edad y raza.

El estudio añade otro obstáculo a la implementación de los coches sin conductor. También descubre una alarmante adición potencial a la seguridad vial.

Los hallazgos se derivan de una revisión sistemática de ocho sistemas populares de detección de peatones. Investigadores del King’s College de Londres (KCL) probaron el software en más de 8,000 imágenes de peatones.

Descubrieron que la precisión promedio de detección era casi un 20% mayor para adultos que para niños. Los sistemas también eran un 7.5% más precisos para peatones de piel clara que para los de piel más oscura.

Estas discrepancias se derivan de una causa común de sesgos de la inteligencia artificial: datos de entrenamiento no representativos.

“Hay un viejo dicho cuando se trata de ingeniería y ciencia de datos, ‘Basura entra, basura sale’. Los sistemas de IA necesitan ser entrenados con mucha cantidad de datos de entrenamiento, y las deficiencias en esos datos se reflejan inevitablemente en la IA”, dijo el Dr. Jie Zhang, profesor de ciencias de la computación en KCL, a TNW.

“En este caso, las galerías de imágenes de código abierto utilizadas para entrenar estos sistemas de detección de peatones no son representativas de todos los peatones y están sesgadas hacia adultos de piel clara. Con menos datos para entrenar, la IA se vuelve menos precisa al detectar grupos subrepresentados.”

Otro problema surgió en las condiciones de iluminación. Bajo un contraste y brillo bajos, los sesgos contra los niños y las personas de piel oscura se agravaron. Esto sugiere que ambos grupos estarían en mayor riesgo durante la conducción nocturna.

Aunque los fabricantes de automóviles no publican detalles sobre su software de detección de peatones, generalmente se basan en los mismos sistemas de código abierto utilizados en la investigación. Por lo tanto, Zhang confía en que experimentan los mismos problemas.

Para reducir los riesgos, él desea más transparencia y regulaciones más estrictas sobre los sistemas de detección de peatones.

“Los desarrolladores deberían comenzar siendo más transparentes en cuanto a cómo se entrenan sus sistemas de detección, así como su rendimiento, para que puedan medirse de manera objetiva; las consecuencias de no hacerlo podrían ser graves”, dijo.

“Pero además de esto, los fabricantes deben trabajar para asegurarse de que sus sistemas de IA sean justos y representativos, y parte del impulso para lograrlo vendrá de los responsables políticos y una regulación más estricta en cuanto a la equidad en la IA.”

Puedes leer el documento de estudio aquí.