El estudio de Stanford sobre la privacidad en la IA
La Universidad de Stanford publicó recientemente un estudio que expone cómo los principales desarrolladores de IA tratan tus conversaciones privadas como material de entrenamiento gratuito de forma predeterminada. Los investigadores analizaron 28 documentos de políticas distintos de OpenAI, Google, Meta, Anthropic, Microsoft y Amazon. Los hallazgos son una llamada de atención para cualquiera que utilice estas herramientas para trabajos sensibles. Cada una de estas empresas emplea tus datos de chat para entrenar sus modelos por defecto. Mientras que algunas ofrecen una forma de optar por no participar, otras como Google y Meta no proporcionan vías claras para evitar que tus datos sean ingeridos por sus futuros sistemas. El estudio encontró que empresas como Amazon, Meta y OpenAI parecen conservar estos datos indefinidamente. Esto crea un dossier digital permanente de tus pensamientos, consultas de salud y secretos profesionales. Aún más preocupante es la falta de transparencia, ya que los detalles esenciales de privacidad a menudo están enterrados en una red de sub-políticas y preguntas frecuentes de centros de ayuda, en lugar de en el acuerdo de privacidad principal. Vivimos en un sistema de privacidad de dos niveles. Los usuarios empresariales obtienen privacidad por defecto, pero el público general es "cosechado" por defecto. La seguridad de la IA no puede ser una idea secundaria enterrada en un PDF... ¿Te sientes cómodo con que tus chats privados se utilicen para entrenar a la próxima generación de modelos de frontera? Comparto el paper en los comentarios