La Brecha de Datos de 38 TB: Incidente de Seguridad en la Inteligencia Artificial de Microsoft

 

En un reciente incidente, los investigadores de Inteligencia Artificial de Microsoft expusieron accidentalmente 38 TB de información confidencial, incluyendo modelos de aprendizaje automático y contraseñas, mientras compartían datos en GitHub. El error se produjo al configurar incorrectamente la función de Azure, permitiendo un acceso no autorizado a una gran cantidad de datos privados.

Este incidente subraya la importancia de la seguridad de datos en el campo de la IA y sirve como un recordatorio de que incluso las organizaciones líderes en tecnología pueden cometer errores. La lección clave aquí es la necesidad de prácticas de seguridad de datos rigurosas y una revisión cuidadosa de las configuraciones antes de compartir información en línea. La seguridad de datos es una responsabilidad constante en la era digital y debe ser una prioridad para todas las organizaciones.

Accede al artículo original: Adslzone