La Inteligencia Artificial (IA) ha comenzado encender las alertas a nivel social sobre los cambios que tendrá en las industrias, debido a su rápida adopción en las operaciones empresariales, pero también porque se perfila como un elemento que transformará las guerras . Nokia México ha revelado a Expansión que la compañía finlandesa ha comenzado a proveer este tipo de tecnología, a través de su plataforma AVA de IA, a las fuerzas armadas finlandesas, estadounidense, alemanas y de Reino Unido.
La milicia aplica AVA –que ofrece información en tiempo real e informes ad-hoc para permitir una toma de decisión inteligente y automatizada– a sus redes de misión crítica de telecomunicaciones – comunicaciones privadas que conectan diferentes instalaciones, cuyo control es del propietario de la red para vigilar su operación en tiempo real –. “Pero no tenemos claro lo que hacen (los cuerpos marciales) en casos de uso porque no tenemos acceso a ello. Es información confidencial. Pero creemos que con la IA tratan de automatizar las tareas y tratan de hacerlas proactivas cuando ellos reciben algún tipo de solicitud o tratan de procesar de manera autónoma en sus propias redes”, detalló Santiago Escalona, director de la estrategia de negocios de Nokia México a Expansión. La Inteligencia Artificial – que se alimenta de los datos que recolecta en tiempo real- en el campo de batalla puede ser utilizada con diversos sensores registrando información de la posición, el estado físico, emocional y mental, así como las capacidades de un soldado en tiempo real para hacer frente a diferentes situaciones, e incluso desarrollar estrategias militares, detalla el estudio Usos militares de la IA, la automatización y la robótica, realizado por el Centro Superior de Estudios de la Defensa Nacional (Ceseden), órgano auxiliar de dirección de las Fuerzas Armadas de España. La guerra entre Rusia y Ucrania es un ejemplo de cómo los ejércitos han incorporado la inteligencia artificial al campo de batalla. En el conflicto bélico los drones autónomos se han utilizado con IA para eficientar un ataque. En México el Ejército utiliza tecnología de reconocimiento facial en los aeropuertos, cuya herramienta requiere de IA, además de manera reciente se informó han utilizado drones en ciertas partes del país, pero no se ha transparentado el objetivo del uso de esta tecnología. Grecia Macías, abogada de la Asociación Red en Defensa de los Derechos Digitales (R3D), explicó que la IA no es algo nuevo. El uso de esta tecnología empezó hace algunos años con la incorporación de sistemas como reconocimiento facial, la toma de datos biométricos e incluso armas autónomas. Pero lo que sí está sucediendo es la sofisticación de ésta tecnología. “Sólo que ahora se ha introducido el término Inteligencia Artificial como paraguas para invisibilizar tecnologías que ya existían y que sólo han traído afectaciones en los derechos humanos”, considera Macías. La Inteligencia Artificial al ser un sistema automatizado puede caer en sesgos de algoritmos de aprendizaje automático para escanear una cara y detectar el género, la raza, las emociones o incluso la identidad de una persona, puede equivocarse e incluso colocar en un situación de riesgo a un individuo. “Esto puede ocurrir con el uso de la IA en los cuerpos militares e incluso servir como excusa para legitimar un error como puede ser bombardear a civiles en vez del enemigo. Podrán argumentar que tomaron esa decisión a partir de lo que les indicó una maquina”, advierte la abogada de la Asociación Civil R3D. Incluso el propio estudio Usos militares de la IA, la automatización y la robótica, reconoce que el uso de este tipo de tecnologías aún cuenta con sesgos. “Hay algoritmos que tienden a identificar como criminales a los miembros de determinados grupos étnicos o a privilegiar la contratación de un género respecto del otro”, por ello ha enfatizado que aún se tiene que analizar con precaución el uso de esta tecnología. El uso y los aplicativos que tiene la IA tanto en la milicia, industrias y en la sociedad ha comenzado a encender las alarmas. Por eso el pasado nueve de diciembre, la Unión Europea acordó la primera regulación normativa en el mundo occidental para el uso de la IA. El objetivo es establecer medidas de seguridad y derechos fundamentales para evitar que la tecnología como ChatGPT o la identificación biométrica se usen con fines represivos, de manipulación o discriminatorios. “No se puede implementar una herramienta sólo porque se está masificando, sino que se debe analizar y regular porque no todos los usos de IA deben ser permitidos e incluso muchos no son compatibles en sociedades democráticas y hay que poner ese punto crítico desde un inicio”, enfatizó Macías.
]]>