Descubre cómo resguardar tu privacidad en LinkedIn ante entrenamiento de IA.
Estados Unidos.-LinkedIn, conocida como la red social para profesionales, ha sido criticada por cómo maneja la recopilación de datos personales y violación de privacidad de usuarios.
La plataforma utiliza esta información para entrenar sus modelos de inteligencia artificial, y aunque los usuarios pueden revocar este permiso, los datos ya utilizados no se ven afectados.
Según LinkedIn, esta práctica es esencial para mejorar la experiencia del usuario, no solo en la red, sino también en aplicaciones como ChatGPT, ya que LinkedIn pertenece a Microsoft, el principal inversor en OpenAI.
Te puede interesar: OpenAI y la evolución de la propiedad intelectual en acuerdos editoriales
En sus términos, se especifica que “tanto LinkedIn como sus proveedores pueden procesar la información de los usuarios para entrenar los modelos que impulsan las funcionalidades de IA generativa”.
Tras la divulgación de esta política, muchos usuarios han buscado formas de prevenir que LinkedIn y sus asociados utilicen sus datos personales para la formación de IA.
LinkedIn ha señalado que no se están entrenando modelos en la Unión Europea, el Espacio Económico Europeo o Suiza, pero sí en otras partes del mundo. Para desactivar esta función, los usuarios deben acceder a “Ajustes y Privacidad” en el menú “Yo”, seleccionar “Privacidad de datos” y desactivar el interruptor en “Datos para la IA generativa”.
No obstante, LinkedIn aclara que “esta configuración no impide que tus datos se utilicen en otras funciones de IA generativa. Es decir, aunque no se estén utilizando para entrenar modelos de IA generativa, sí podrían usarse en otro tipo de herramientas de IA de LinkedIn. Por ejemplo, cuando mantienes una conversación con un chatbot”.
Los usuarios preocupados por el uso de su historial sin consentimiento deben llenar un “Formulario de objeción de procesamiento de datos”, disponible en la página de ayuda de LinkedIn.
Al igual que otras grandes plataformas tecnológicas, LinkedIn enfrenta un déficit de datos debido a restricciones de proveedores de contenido. Para compensar, utilizan la información de interacciones sociales de los usuarios.
Empresas como Meta y X (antes Twitter) también han admitido el uso de datos de usuarios para optimizar sus IA.
Te puede interesar: Inteligencia Artificial supera a expertos en la creación de ideas investigativas
Este enfoque ha sido criticado por entidades de protección de datos, quienes argumentan que la extracción de datos sin regulaciones adecuadas puede comprometer la privacidad de los usuarios, violando sus derechos mediante políticas poco claras.