marzo 16, 2025

Polémica por cambios en políticas de IA de una empresa tecnológica

https://www.semana.com/resizer/v2/6SL7LEFLH5AAJIAYAD5LOAPHDM.jpg?auth=b2a694620b1c9974682ed5cfc14353b28cdacc8404a427487e25420777f07c9f&smart=true&quality=75&width=1280&height=720

En una nueva revisión de sus normas éticas, una importante compañía del sector tecnológico ha suprimido su promesa anterior de no emplear la inteligencia artificial (IA) en usos ligados a armamento o vigilancia que puedan violar leyes internacionales o derechos humanos. Anteriormente, la política de la empresa prohibía la creación de tecnologías capaces de causar daño general, incluidas armas, estando en consonancia con los principios de derechos humanos a nivel internacional.

Este cambio ha provocado variadas reacciones, tanto en el interior como en el exterior de la compañía. Algunos trabajadores han manifestado su preocupación en foros internos, cuestionando el rumbo que está tomando la empresa. Un ejemplo de ello es la plataforma interna Memegen, donde se han compartido memes y comentarios críticos sobre la decisión, reflejando preocupaciones acerca del uso de la IA en contextos militares y de vigilancia.

Esta modificación ha generado diversas reacciones, tanto dentro como fuera de la empresa. Algunos empleados han expresado su preocupación en foros internos, cuestionando la dirección que está tomando la compañía. Por ejemplo, en la plataforma interna Memegen, se compartieron memes y comentarios críticos sobre la decisión, reflejando inquietudes respecto al uso de la IA en contextos militares y de vigilancia.

La actualización de las directrices se produce en un contexto de creciente competencia global por el liderazgo en IA. Los ejecutivos de la empresa argumentan que las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Además, enfatizan la importancia de la colaboración entre empresas, gobiernos y organizaciones que comparten estos valores para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional.

La supresión de la prohibición pone a la empresa en sintonía con otras del sector tecnológico que admiten ciertas aplicaciones militares de sus tecnologías. Por ejemplo, desarrolladores de IA como Meta y OpenAI han autorizado el uso de sus tecnologías en contextos militares. Esta tendencia refleja una revisión de las políticas corporativas en reacción a las dinámicas geopolíticas y los avances tecnológicos actuales.

La eliminación de la prohibición alinea a la empresa con otras en el sector tecnológico que permiten ciertas aplicaciones militares de sus tecnologías. Por ejemplo, desarrolladores de IA como Meta y OpenAI han permitido el uso de sus tecnologías en contextos militares. Esta tendencia refleja una reevaluación de las políticas corporativas en respuesta a las dinámicas geopolíticas y los avances tecnológicos actuales.

Sin embargo, esta decisión también ha suscitado preocupaciones entre expertos y defensores de la ética en la IA. Algunos argumentan que el desarrollo de sistemas de armas autónomas y herramientas de vigilancia impulsadas por IA podría tener implicaciones éticas y de derechos humanos significativas. La comunidad científica ha advertido sobre los riesgos asociados con el desarrollo de armas autónomas y ha abogado por un sistema de control global para mitigar posibles amenazas.