Reconocimiento facial defectuoso conduce a falsa prisión

Fallo en el reconocimiento facial resulta en una prisión injusta

El 26 de marzo de 2022, ocurrió un violento asalto en un autobús de la Maryland Transit Administration en los suburbios de Baltimore. El agresor golpeó múltiples veces a la conductora del autobús después de una discusión sobre las reglas de uso de mascarillas por COVID, luego huyó con su teléfono móvil.

Según un reciente informe de The New Yorker reporte, las cámaras de vigilancia capturaron imágenes del atacante. La policía de tránsito utilizó estas imágenes para crear un boletín de búsqueda que se distribuyó a las agencias de aplicación de la ley.

Un analista de la fiscalía del condado de Harford ingresó una imagen de vigilancia en un software de reconocimiento facial. El algoritmo identificó a Alonzo Cornelius Sawyer, un hombre negro de unos 50 años de Abingdon, MD.

Días después, Sawyer fue arrestado mientras comparecía ante un tribunal por otro caso sin relación.

La policía lo interrogó y le mostró las imágenes del boletín de búsqueda, a lo que él insistió en que no era él, pero sus afirmaciones fueron descartadas después de que su oficial de libertad condicional, Arron Daugherty, identificara positivamente a Sawyer como el agresor al ver las imágenes. Daugherty solo había conocido a Sawyer brevemente dos veces antes mientras Sawyer llevaba una mascarilla.

La esposa de Sawyer, Carronne Jones-Sawyer, también negó rotundamente que las imágenes mostraran a su esposo, citando diferencias físicas en la edad, constitución, ropa y más. Ella proporcionó posibles coartadas, colocando a Sawyer lejos de la escena cuando ocurrió el asalto. Sin embargo, los detectives no realizaron ninguna otra investigación para corroborar la coincidencia del reconocimiento facial.

Sesgo racial en la IA

Este caso ejemplifica los riesgos de depender demasiado de herramientas de IA sin estándares suficientes.

El sesgo racial hace que los sistemas de reconocimiento facial identifiquen erróneamente a personas de color en tasas mucho más altas. La coincidencia algorítmica prevaleció sobre el testimonio contradictorio de los testigos oculares en la investigación policial.

Después de un mes en la cárcel, los cargos fueron retirados cuando Daugherty admitió sus dudas después de reunirse con la esposa de Sawyer. El uso del reconocimiento facial nunca se le reveló a Sawyer. Ni él ni su esposa fueron notificados cuando finalmente se arrestó a otro hombre.

La historia pone de manifiesto preocupaciones sobre la capacitación insuficiente en reconocimiento facial, falta de corroboración, falta de divulgación del uso de la tecnología y sesgo de confirmación, lo que lleva a la policía a descartar pruebas contradictorias.

Los críticos argumentan que se debería prohibir o limitar estrictamente el uso del reconocimiento facial, dado su potencial de abuso y perpetuación de la injusticia sin supervisión. Sawyer cree que habría declarado falsamente su culpabilidad sin la intervención de su esposa, mostrando cómo prácticas como estas permiten una persecución exagerada.

A medida que los avances rápidos de la IA se extienden, el público necesita protección contra tecnologías no comprobadas. La experiencia de Sawyer subraya la necesidad urgente de reformas, transparencia y responsabilidad para evitar más arrestos injustos.

Imagen destacada: Cottonbro Studio; Pexels; ¡Gracias!