Google amplía su programa de recompensas por errores para incluir recompensas por escenarios de ataques de IA

Google expande su programa de recompensas por vulnerabilidades para incluir recompensas por ataques de IA

Render abstracto en 3D de cables finos ondulados y partículas formando una mano

En ciberseguridad, las amenazas cambian rápidamente. Suma la tecnología de inteligencia artificial generativa en constante evolución y las preocupaciones de seguridad evolucionan minuto a minuto. Google es uno de los principales jugadores en tecnología de inteligencia artificial y reconoce la necesidad de adaptarse a esta amenaza.

Google está ampliando su programa existente de Recompensas por Vulnerabilidades (VRP, por sus siglas en inglés) para incluir vulnerabilidades específicas de la inteligencia artificial generativa y considerar los desafíos únicos que plantea, como sesgos, manipulaciones de modelos, interpretaciones erróneas de datos y otros ataques adversarios.

También: Ciberseguridad 101: Todo sobre cómo proteger tu privacidad y mantenerte seguro en línea

El VRP es un programa de recompensas por errores que recompensa a investigadores de seguridad externos por probar e informar vulnerabilidades de software en los productos y servicios de Google. Ahora, esto incluirá productos de inteligencia artificial generativa. Algunos de los productos de inteligencia artificial generativa más populares de Google incluyen Bard, Lens y otras integraciones de IA en Search, Gmail, Docs y más.

A medida que la inteligencia artificial generativa se integra cada vez más en diferentes herramientas y programas de Google, los riesgos potenciales aumentan, y Google ya tiene equipos internos de confianza y seguridad trabajando para prever estos riesgos. Con la expansión del programa de recompensas por errores para incluir la inteligencia artificial generativa, Google intenta fomentar la investigación en seguridad de IA para garantizar que la IA responsable se convierta en la norma.

También: Más allá de las contraseñas: 4 pasos clave de seguridad que probablemente olvidas

Google también ofreció más información sobre sus criterios de recompensa para informar errores en productos de IA para que los usuarios puedan determinar fácilmente qué está dentro del alcance y qué no lo está.

Los investigadores de seguridad externos tienen la tarea de encontrar estas vulnerabilidades a cambio de beneficios financieros, lo que a su vez le brinda a Google, la empresa detrás del programa de recompensas por errores, la oportunidad de solucionar estas amenazas antes de que los actores malintencionados las aprovechen. Esto garantiza un producto más seguro para los usuarios.

Además de incluir la inteligencia artificial generativa en su VRP, Google presentó el Marco de IA Segura para respaldar la creación de aplicaciones de IA responsables y seguras. También anunció que está colaborando con la Fundación de Seguridad de Código Abierto para garantizar la integridad de las cadenas de suministro de IA.

También: WormGPT: Lo que debes saber sobre el primo malicioso de ChatGPT

Los usuarios que deseen unirse al programa de recompensas por errores de Google pueden enviar directamente un error o vulnerabilidad de seguridad a la empresa. En 2022, Google emitió más de $12 millones en recompensas a investigadores de seguridad como parte de su programa de recompensas por errores.