Nuestro sitio web utiliza cookies para mejorar y personalizar tu experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al utilizar el sitio web, aceptas el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Por favor, haz clic en el botón para ver nuestra Política de Privacidad.

Impacto de la IA en estrategias corporativas contemporáneas

https://www.eluniversal.com.mx/resizer/v2/4PNIBGXLYBGNJKFLOOF42DNPQU.jpeg?auth=e477bdcc7d4a6bee95a2a5dda6f6d17ef0f6a7864bc40442b27ada535bd5c5ed&smart=true&width=1100&height=666

En una nueva revisión de sus normas éticas, una importante compañía del sector tecnológico ha suprimido su promesa anterior de no emplear la inteligencia artificial (IA) en usos ligados a armamento o vigilancia que puedan violar leyes internacionales o derechos humanos. Anteriormente, la política de la empresa prohibía la creación de tecnologías capaces de causar daño general, incluidas armas, estando en consonancia con los principios de derechos humanos a nivel internacional.

En una reciente actualización de sus directrices éticas, una destacada empresa tecnológica ha eliminado su compromiso previo de no utilizar la inteligencia artificial (IA) en aplicaciones relacionadas con armamento o vigilancia que puedan infringir normas internacionales o derechos humanos. Hasta hace poco, la política de la compañía evitaba el desarrollo de tecnologías que pudieran causar daño general, incluyendo armas, alineándose con principios internacionales de derechos humanos.

La revisión de las normas ocurre en un marco de intensificada competencia mundial por el dominio en IA. Los directivos de la compañía sostienen que las democracias deben encabezar el desarrollo de la IA, guiándose por principios esenciales como la libertad, la igualdad y el respeto a los derechos humanos. También destacan la relevancia de la cooperación entre empresas, gobiernos y organizaciones afines a estos valores, para desarrollar una IA que salvaguarde a las personas, fomente el crecimiento global y apoye la seguridad nacional.

Esta decisión representa un cambio importante respecto a la postura asumida en 2018, cuando la compañía prohibió el uso de su tecnología de IA en armamento luego de protestas internas por un contrato con el Departamento de Defensa de Estados Unidos para analizar videos de drones. Desde aquel entonces, la tecnología ha progresado significativamente, y la IA se ha transformado en una herramienta omnipresente en numerosas aplicaciones, desde teléfonos móviles hasta internet.

La supresión de la prohibición pone a la empresa en sintonía con otras del sector tecnológico que admiten ciertas aplicaciones militares de sus tecnologías. Por ejemplo, desarrolladores de IA como Meta y OpenAI han autorizado el uso de sus tecnologías en contextos militares. Esta tendencia refleja una revisión de las políticas corporativas en reacción a las dinámicas geopolíticas y los avances tecnológicos actuales.

La eliminación de la prohibición alinea a la empresa con otras en el sector tecnológico que permiten ciertas aplicaciones militares de sus tecnologías. Por ejemplo, desarrolladores de IA como Meta y OpenAI han permitido el uso de sus tecnologías en contextos militares. Esta tendencia refleja una reevaluación de las políticas corporativas en respuesta a las dinámicas geopolíticas y los avances tecnológicos actuales.

Sin embargo, esta decisión también ha suscitado preocupaciones entre expertos y defensores de la ética en la IA. Algunos argumentan que el desarrollo de sistemas de armas autónomas y herramientas de vigilancia impulsadas por IA podría tener implicaciones éticas y de derechos humanos significativas. La comunidad científica ha advertido sobre los riesgos asociados con el desarrollo de armas autónomas y ha abogado por un sistema de control global para mitigar posibles amenazas. 

By Nicolás Adomo

Puede interesarte