Descubre cómo proteger tu privacidad de datos de ser usados en inteligencia artificial (IA).
Estados Unidos.-Muchas compañías de tecnología recogen información para mejorar sus sistemas de inteligencia artificial (IA), ignorando a menudo las normativas de derechos de autor o las políticas de privacidad.
Los avanzados modelos de IA necesitan vastas cantidades de datos web, que son proporcionados por incontables sitios, otorgando así acceso a la información personal de los usuarios sin su conocimiento explícito sobre las técnicas de recolección empleadas.
Estas prácticas han resultado en una avalancha de litigios contra las corporaciones tecnológicas por su falta de transparencia en el manejo de datos. Según Niloofar Mireshgallah, especialista en privacidad de datos IA en la Universidad de Washington, las empresas tienden a complicar intencionadamente los procedimientos para desincentivar a los individuos a reclamar la no utilización de sus datos en el entrenamiento de modelos de IA.
Frecuentemente, los términos de servicio incluyen cláusulas que asumen el consentimiento del usuario para el uso de sus datos, lo que obliga a aquellos que se oponen a buscar y aplicar opciones de exclusión voluntaria.
No obstante, algunas plataformas están empezando a ofrecer más control a los usuarios sobre sus datos y su aplicación en IA. A pesar de que son pocas, existen compañías que prohíben el uso de información de sus usuarios para entrenar modelos de IA. Además, servicios como Spawing permiten a los individuos verificar si sus imágenes han sido utilizadas por IA y desactivar su uso.
Wired ha publicado una lista de empresas con opciones de exclusión voluntaria, proporcionando guías para prevenir la recolección de datos por IA, siempre y cuando existan los mecanismos adecuados. Sin embargo, estas medidas no cubren la información compartida previamente.
Por ejemplo, Adobe utiliza archivos de Creative Cloud para perfeccionar su algoritmo de aprendizaje automático, pero excluye los archivos solo almacenados localmente. Los usuarios pueden desactivar el “Análisis de contenido” en la configuración de seguridad para impedir el uso de sus datos.
Igualmente, Amazon Web Services ofrece un proceso de exclusión, aunque complejo, que requiere la creación de una política de protección de datos.
Google con su herramienta Gemini y Tumblr también proporcionan opciones para que los usuarios restrinjan el uso de su información. En Gemini, se puede desactivar el análisis de conversaciones desde el panel de actividades, mientras que Tumblr permite bloquear la compartición de datos con terceros en la configuración de privacidad.
La variedad de procesos de exclusión demuestra que cada compañía maneja diferentes protocolos, haciendo esencial revisar las políticas de privacidad de las plataformas en uso para proteger la privacidad de datos IA.