¿Por qué se están desarrollando armas inteligentes con
capacidad para tomar decisiones de forma autónoma? ¿Por qué no se prohíben sin
más?
Hace poco hablaba de la responsabilidad de la inteligencia artificial y ponía un ejemplo: los coches autónomos que ya empiezan a circular
por las carreteras de algunos países y que ya se han visto involucrados en
algún accidente. ¿En quién recae la responsabilidad de las consecuencias que
acarrean las decisiones autónomas del coche?
Hoy quiero hablar de otro tipo de máquina inteligente,
autónoma y con capacidad de tomar decisiones: los ‘robots asesinos’. Parece que
todavía no están ‘circulando’ por las guerras del mundo, pero poco les debe de faltar
ya. Sí, existir, existen: la tecnología ya ha avanzado lo suficiente. Muchos
países tienen programas de autonomía en el campo de batalla. Es el paso
siguiente a la existencia de armas controladas a distancia por un humano, que
es el que finalmente decide si darles uso o no: los drones son el ejemplo más
llamativo. Con los robots asesinos no habrá ningún humano detrás que apriete el
gatillo; será la máquina la que tome la decisión de disparar. Y si dispara, no
será para no dar en el blanco, ¿verdad?
¿Dónde están los
límites? La legislación, las normas, el derecho
se aplican a las personas, no a las máquinas. Si un ser humano mata, puede ser llevado
a juicio y condenado; si una máquina inteligente y autónoma mata, ¿quién va a
ir a juicio?, ¿quién va a responder por ella?
Muchas cosas son todavía oscuras en este ámbito… y deberíamos tener todo el
interés del mundo en que se vayan clarificando, porque ¿quién no nos dice que
el paso siguiente a estos robots soldados no sea el robot policía o el robot
guarda de seguridad? Las guerras, parece que siempre están lejos, pero los
policías, de una clase o de otra,… están aquí al lado. Probablemente prohibir
el desarrollo de estos robots asesinos sería lo mejor. ¿Llegaremos a ello?
Dúdolo mucho.