Globedia.com

×
×

Error de autenticación

Ha habido un problema a la hora de conectarse a la red social. Por favor intentalo de nuevo

Si el problema persiste, nos lo puedes decir AQUÍ

×
cross

Suscribete para recibir las noticias más relevantes

×
Recibir alertas

¿Quieres recibir una notificación por email cada vez que 20minutos.es escriba una noticia?

En guerra con 'Terminator'

0
- +
03/12/2019 23:51 0 Comentarios Lectura: ( palabras)

Si es usted una persona familiarizada con la trama de Terminator entenderá fácilmente qué es lo que quiere evitar la campaña internacional Stop Killer Robots . La distopía no parece tan lejana y esta campaña es lo más parecido que tenemos a Sarah Connor.Los departamentos de Defensa de Estados Unidos, Israel, Rusia y China encabezan las inversiones en investigaciones para desarrollar un tipo de robot con capacidad de matar sin intervención humana. Si sumamos a la Unión Europea, estos países representan el 70% de la inversión mundial para lograr un robot capaz de identificar y localizar a una persona, en cualquier parte del planeta y tomar por sí solo la decisión de matarla. El objetivo es que no sea necesaria la intervención humana, ni militar, ni política... ni judicial. Estas armas funcionarían de una manera parecida a los traductores de texto: basándose en nuevos algoritmos de aprendizaje profundo y en la dotación de millones de datos. En los traductores, hay un margen de error que el usuario corrige. En el caso de un arma autónoma, los errores implican la pérdida de vidas humanas. Son, por tanto, irreparables.La cuestión es si debemos permitir que la fabricación de sistemas de armas que puedan matar de manera autónoma pero no puedan comprender el contexto, distinguir entre un civil con miedo o un enemigo amenazante, ni entender las intenciones que hay detrás de una expresión humana. Delegar en una máquina la decisión de matar va en contra de la dignidad humana y de los derechos de las personas.Por otro lado, hay tres principios básicos que deberían respetarse en un escenario bélico: el principio jurídico de proporcionalidad, que analiza si los daños causados son proporcionales a las ganancias militares obtenidas o si los daños a civiles son excesivos; el principio jurídico de distinción, que obliga a distinguir entre combatientes y no combatientes; y el principio de responsabilidad. Si se produce un error o un crimen de guerra, ¿quién es el responsable? Ante la dificultar de dirimir responsabilidades cabe esperar que todos los implicados intenten evadir la responsabilidad y que, por tanto, impere la impunidad. Abrir la puerta a la posibilidad de hacer guerras sin riesgo puede hacer prevalecer las soluciones militares por encima de las políticas. La inteligencia artificial hará más fácil pensar en guerras a distancia más abstractas, hecho que puede derivar en una escalada de los conflictos.


Sobre esta noticia

Autor:
20minutos.es (44355 noticias)
Fuente:
20minutos.es
Visitas:
7
Licencia:
Creative Commons License
¿Problemas con esta noticia?
×
Denunciar esta noticia por

Denunciar

Lugares

Comentarios

Aún no hay comentarios en esta noticia.