Google actualiza su política de IA, eliminando restricciones en armas y vigilancia.
Estados Unidos.-Google ha revisado su política de ética en inteligencia artificial (IA), retirando su previo compromiso de no emplear esta tecnología en el desarrollo de armas o sistemas de vigilancia.
En declaraciones anteriores, la empresa había prometido evitar el uso de IA en aplicaciones que pudieran causar daño o que se emplearan en vigilancia que contravenga las normas internacionales.
Google modifica su política de IA
Este ajuste ocurre en un momento de evolución acelerada en el sector de la inteligencia artificial. Tras el debut de ChatGPT por OpenAI en 2022, el avance en IA ha sido vertiginoso, superando la capacidad de las regulaciones y legislaciones para mantener el paso.
En un reciente comunicado, James Manyika, vicepresidente senior de investigación, laboratorios, tecnología y sociedad, junto con Demis Hassabis, director de Google DeepMind, explicaron que los marcos regulatorios en democracias han moldeado la nueva postura de Google respecto a la IA.
“Hay una competencia global en curso por el liderazgo en IA dentro de un panorama geopolítico cada vez más complejo. Creemos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos”, afirmaron.
Google subraya la importancia de la colaboración entre gobiernos, empresas y organizaciones alineadas con estos valores, apuntando a desarrollar una IA que salvaguarde a las personas, promueva el crecimiento global y fortalezca la seguridad nacional.
De principios éticos a estrategias de negocio, Google presentó sus Principios de IA en 2018, en un tiempo donde la integración de esta tecnología en la sociedad no era tan profunda.
Te puede interesar: Google en la lista negra China, de multinacionales de EU
Ese año, Google se desligó de un contrato de computación en la nube de US$ 10.000 millones con el Pentágono, alegando que no podía asegurar que el contrato se alineara con sus principios éticos de IA.
Además, más de 4.000 empleados exigieron una política clara contra el desarrollo de tecnología bélica, culminando en la renuncia de varios empleados que discreparon con la dirección de la empresa.
La reciente actualización de los principios de IA de Google marca un cambio notable en su postura anterior.
Te puede interesar: Google DeepMind desarrolla equipo de IA para simulaciones físicas
Aunque la empresa continúa promoviendo el uso responsable de la inteligencia artificial, la eliminación de las restricciones sobre armas y vigilancia podría abrir nuevas vías de colaboración con entidades gubernamentales y militares.