Microsoft podría estar guardando tus conversaciones de Bing Chat
Microsoft guarda tus conversaciones de Bing Chat
Uh-oh, Microsoft podría estar almacenando información de tus chats de Bing.
Esto probablemente esté bien siempre y cuando nunca hayas conversado sobre algo que no quisieras que alguien más leyera, o si pensaste que tus chats de Bing se eliminarían, o si pensaste que tenías más privacidad de la que en realidad tienes.
En sus términos de servicio, Microsoft actualizó las nuevas políticas de IA (Inteligencia Artificial). Introducidas el 30 de julio y vigentes a partir del 30 de septiembre, la política dice: “Como parte de la prestación de los servicios de IA, Microsoft procesará y almacenará tus entradas al servicio, así como las salidas del servicio, con el fin de monitorear y prevenir usos o salidas abusivas o perjudiciales del servicio”.
Según la interpretación de “Servicios de IA” en los términos de servicio de Microsoft por parte de The Register, Microsoft puede almacenar tus conversaciones con Bing si no eres un usuario empresarial, y no sabemos por cuánto tiempo.
Microsoft no respondió de inmediato a una solicitud de comentario de ENBLE y un portavoz de Microsoft se negó a comentar a The Register sobre cuánto tiempo almacenará las entradas de los usuarios.
- Dyson lanzó una versión asequible del Supersonic, pero es posible q...
- El papel de los sensores en el diseño de sistemas embebidos de IoT
- Ofertas Los iPad Pro M1 tienen grandes descuentos en Woot con hasta...
“Actualizamos regularmente nuestros términos de servicio para reflejar mejor nuestros productos y servicios”, dijo un representante en un comunicado a The Register. “Nuestra actualización más reciente del Acuerdo de Servicios de Microsoft incluye la adición de lenguaje que refleja la inteligencia artificial en nuestros servicios y su uso apropiado por parte de los clientes”.
Además de almacenar datos, hay cuatro políticas adicionales en la nueva cláusula de Servicios de IA. Los usuarios no pueden utilizar el servicio de IA para “descubrir cualquier componente subyacente de los modelos, algoritmos y sistemas”. No se permite a los usuarios extraer datos de los servicios de IA. Los usuarios no pueden utilizar los servicios de IA para “crear, entrenar o mejorar (directa o indirectamente) cualquier otro servicio de IA”. Y finalmente, los usuarios son “únicamente responsables de responder a cualquier reclamo de terceros con respecto a su uso de los servicios de IA en cumplimiento de las leyes aplicables (incluyendo, pero no limitado a, infracción de derechos de autor u otros reclamos relacionados con el contenido generado durante el uso de los servicios de IA)”.
Así que tal vez debas tener un poco más de cuidado al usar los chats de Bing de Microsoft o cambiar al modo de chat empresarial de Bing: Microsoft dijo en julio que no guarda esas conversaciones.