En un giro importante en su política de ética en inteligencia artificial (IA), Google ha suprimido de sus normativas la restricción explícita de emplear su tecnología en aplicaciones vinculadas con armamento y supervisión. Este cambio, dado a conocer el 4 de febrero de 2025, ha suscitado un extenso debate sobre las consecuencias éticas y sociales de la IA en ámbitos militares y de seguridad.
Cambio en las Normas de IA de Google
En 2018, Google fijó una serie de principios éticos para orientar el desarrollo y la aplicación de su tecnología de IA. Dentro de estos principios se incluía el compromiso de evitar diseñar o implementar IA para:
- Aplicaciones que pudieran causar o tiendan a provocar daño general.
- Armas u otras tecnologías cuyo objetivo principal o uso sea causar o facilitar directamente lesiones a personas.
- Tecnologías que recojan o usen información para vigilancia violando normas internacionalmente aceptadas.
- Tecnologías cuyo propósito contradiga principios ampliamente reconocidos del derecho internacional y los derechos humanos.
Estas normativas fueron implementadas después de las críticas internas y externas que la compañía enfrentó por su participación en el Proyecto Maven, una iniciativa del Departamento de Defensa de Estados Unidos que empleaba IA para analizar imágenes de drones. La controversia llevó a Google a no renovar el contrato y a establecer límites claros en cuanto al uso de su tecnología en contextos militares y de vigilancia.
Actualización de los Principios Éticos
Revisión de los Principios Éticos
«Creemos que las democracias deben encabezar el desarrollo de la IA, guiadas por principios fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Y consideramos que las empresas, los gobiernos y las organizaciones que comparten estos ideales deberían colaborar para … .»
Consecuencias y Reacciones
La eliminación de las restricciones específicas ha generado inquietudes entre empleados y expertos en ética tecnológica. Algunos trabajadores de Google manifestaron su preocupación por la falta de participación del personal en la decisión y temen que la compañía pueda comprometer sus principios éticos en beneficio de intereses comerciales o políticos. Parul Koul, ingeniera de software en Google y presidenta de la Alphabet Workers Union, declaró:
«Es sumamente preocupante ver a Google abandonar su compromiso con el uso ético de la tecnología de IA sin incluir a sus empleados ni al público en general, pese al sentimiento persistente entre los trabajadores de que la empresa no debería involucrarse en el negocio de la guerra.»
Además, expertos en ética de la IA han advertido sobre los peligros de desarrollar sistemas de armas autónomas y han abogado por el establecimiento de controles globales para regular su uso. Stuart Russell, científico informático británico, ha señalado los riesgos asociados con el desarrollo de sistemas de armas autónomas y ha defendido la necesidad de un sistema de control global.
Antecedentes y Perspectivas Futuras
Contexto y Perspectivas Futuras
Este cambio en la política de Google se produce en un momento de creciente competencia global por el liderazgo en IA y en medio de debates sobre cómo gobernar esta tecnología emergente. La empresa ha enfatizado la necesidad de que las democracias lideren el desarrollo de la IA, … . Sin embargo, la eliminación de prohibiciones específicas plantea preguntas sobre cómo Google equilibrará sus objetivos comerciales con las consideraciones éticas y sociales en el desarrollo y la aplicación de la IA.