Armas – Revista Militar

INTELIGENCIA ARTIFICIAL, LOS LÍMITES A SU CAPACIDAD DE MANDO

Por: Javier Juárez Mojica. Comisionado en suplencia por vacancia de la presidencia, conforme a los establecidos en el artículo 19 de la ley Federal de Telecomunicaciones y Radiodifusión.

En la era de la Inteligencia Artificial (IA), la pregunta de quién está al mando o toma las decisiones adquiere una nueva dimensión que a veces puede pasar desapercibida ante nuestros ojos.

Mark Weiser, conocido como el padre de la computación ubicua, decía que las tecnologías más relevantes son las que desaparecen, es decir, aquellas que se integran en nuestro día a día y pasan desapercibidas. De alguna manera, eso es lo que está pasando con la IA, aunque no la veamos, está presente en diversas actividades de nuestra cotidianidad: filtrando correos no deseados o haciendo recomendaciones de series o películas.

Ciertamente, no todas las recomendaciones o decisiones que toma por nosotros la IA van a tener los mismos impactos, los casos que acabo de mencionar podrían ser triviales, pero qué pasa si lo que nos aparece en una de nuestras redes sociales influye en nuestro ánimo para ejecutar/evitar alguna acción, como salir o no salir a votar (como el caso de Cambridge Analytica en 2016).

No se trata de generar un escenario pesimista y dar la idea de que una IA va a tomar el control del mundo y de nuestra voluntad, lo que quiero resaltar es que en la era de la IA estamos ante sistemas que van a cumplir las metas para lo que sean programadas o diseñadas. Como bien lo señaló en su momento Edsger W. Dijkstra: “La pregunta de si una computadora puede pensar no es más interesante que la pregunta de si un submarino puede nadar”, esta reflexión destaca que las máquinas están diseñadas para cumplir con alguna meta específica; tal vez el submarino no nada en el sentido literal de la palabra, pero puede desplazarse a través del mar.

La IA como tecnología de propósito general

En el Foro Económico Mundial de Davos en 2018, Sundar Pichai, CEO de Google, señaló que él pensaba la IA como algo más profundo que el fuego o la electricidad. Esta afirmación resalta la importancia de la IA como una tecnología de propósito general, aplicable en prácticamente todas las actividades humanas. Desde la agricultura, medicina, impartición de justicia, incluso en la creación artística, entre otras.

El uso de IA en la impartición de justicia tiene implicaciones relevantes. El sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) calcula la probabilidad de reincidencia de un infractor para determinar si podría dejarse en libertad o mantenerse preso. Como lo ha señalado la American Civil Liberties Union, estos programas hacen predicciones o recomendaciones a partir de información judicial y policial en la que históricamente personas afroamericanas o de otras minorías raciales han sido señaladas como responsables de la mayor parte de los delitos(1); normalmente resuelven en contra de estas minorías.

Sería aventurado decir que COMPAS tiene un prejuicio racista ya que lo que hace es realizar cálculos conforme a la información con que fue entrenado el algoritmo. Aquí vale señalar que los algoritmos se entrenan con grandes cantidades de datos y en función de ello “aprenden”. Sin embargo, si los datos tienen algún sesgo, lo que aprendan también puede estar sesgado. En un caso real, investigadores de la Universidad de Washington desarrollaron un algoritmo que clasificaba fotos de perros husky y lobos. Como en las fotos utilizadas para entrenar al algoritmo los lobos siempre aparecieron con fondo nevado, cuando un husky aparecía en la nieve el algoritmo decía que se trataba de un lobo.

Regresando al sistema COMPAS, y teniendo en cuenta que se pueden cometer errores como el de confundir un perro con lobo solamente porque en la foto aparecía nieve, debería empezar a generarnos ciertas reservas para concluir que no en todos los casos es buena idea delegar decisiones o el mando a sistemas de IA. Una de esas materias que requieren de la mayor atención precisamente es la de seguridad y defensa.


IA en la seguridad y defensa

Si se preguntara a la sociedad si el Estado debería tomar medidas para mejorar las condiciones de seguridad de la población sería contraintuitivo pensar que alguien estaría en contra. Sin duda, salvar vidas sería una de las metas deseables de la tecnología. Al respecto, ¿no son precisamente los conflictos armados, uno de los escenarios en los que más se exponen vidas humanas? ¿Debería entonces permitirse el uso de armas autónomas que eviten a los soldados exponerse?

El uso de la IA en conflictos armados o para construir armas autónomas es un tema polémico, por decir lo menos. La Comisión Mundial para la Ética en el Conocimiento Científico y la Tecnología (COMEST) de la UNESCO en el reporte de Ética en la robótica(2)destaca que el uso de armas autónomas violaría el Derecho Internacional Humanitario y plantea cuestiones éticas sobre la delegación de decisiones de vida o muerte a máquinas. En este reporte se recomienda mantener el control humano sobre los sistemas de armas, asegurando que las decisiones de uso de fuerza sean responsabilidad de un humano. Otros documentos como el Estudio Preliminar de ética en la IA también de COMEST y la Recomendación de la UNESCO sobre la ética de la inteligencia artificial del 2021, también hacen referencia a las implicaciones de la IA en estas materias.

En otros foros, el debate internacional sobre armas letales autónomas (LAWS)(3)abarca cuestiones éticas, legales y de seguridad. En el marco de la Convención sobre Ciertas Armas Convencionales (CCW)(4), los Estados han discutido sobre LAWS en reuniones del Grupo de Expertos Gubernamentales, buscando establecer un marco normativo y definir estos sistemas. Varias propuestas de prohibición preventiva han surgido, impulsadas por países y organizaciones que ven estos sistemas como un riesgo para la humanidad.

Desde una perspectiva ética y legal, hay preocupación sobre la responsabilidad en caso de fallos de los sistemas autónomos y su compatibilidad con el Derecho Internacional Humanitario. Las iniciativas de la sociedad civil, como la campaña “Stop Killer Robots”(5)  buscan un tratado internacional para prohibir los LAWS.

Así pues, la integración de la IA en sistemas militares plantea desafíos éticos y operativos significativos. Por un lado, la capacidad de la IA para procesar grandes volúmenes de datos y tomar decisiones rápidas puede mejorar la eficiencia y la eficacia de las operaciones, por otro, la delegación de decisiones críticas a máquinas plantea cuestiones sobre la responsabilidad y el control humano.

A manera de conclusión

La inteligencia artificial no necesita “pensar” para ser efectiva, su objetivo es cumplir tareas específicas con una precisión y eficiencia que llegan a superar las capacidades humanas. En este momento, tenemos la alta responsabilidad de tomar decisiones de si está tecnología de propósito general y también de uso dual debería o no emplearse en tareas militares y en su caso, hasta qué grado debería llegar su autonomía de mando.

 

Vale la pena recuperar un caso histórico que no desencadenó en conflicto armado gracias a que se mantuvo un humano en la cadena de decisión. Durante la crisis de los misiles en 1962, un submarino soviético se encontraba en una situación crítica, frente a la posibilidad de un ataque estadounidense. En ese momento, tres comandantes debían decidir si lanzar o no un torpedo nuclear. Dos de ellos estaban a favor de la acción, pero Vasili Arkhipov se opuso, y con ello salvó al mundo de un conflicto nuclear(6), probablemente una decisión automatizada hubiera tenido un resultado diferente.

En la era de la IA, y más allá del debate aún en marcha en torno a las armas letales autónomas, los comandantes y en general profesionistas más efectivos no serán aquellos que deleguen las decisiones en una máquina, sino los que incorporen éticamente, como parte de sus herramientas, las capacidades que hoy nos ofrece esta nueva tecnología.