Globedia.com

×
×

Error de autenticación

Ha habido un problema a la hora de conectarse a la red social. Por favor intentalo de nuevo

Si el problema persiste, nos lo puedes decir AQUÍ

×
cross

Suscribete para recibir las noticias más relevantes

×
Recibir alertas

¿Quieres recibir una notificación por email cada vez que Diasporaweb escriba una noticia?

El hombre y la inteligencia artificial, ¿vamos hacia el monstruo de frankeinsten?

27/06/2017 10:20 0 Comentarios Lectura: ( palabras)

Hay preocupación por el futuro de la inteligencia artificial, llegando algunos científicos a estar alerta ante la amenaza que pueden representar todos los seres artificiales, sobre todo en conflictos armados.Discuten el fundador de Microsoft, Bill Gates, Stephen Hawking, y otros

El fundador de Microsoft, Bill Gates, Stephen Hawking, Elon Mus, Noel Sharkey y  otras personalidades del mundo intelectual muestran su preocupación por el futuro de la inteligencia artificial, llegando algunos a pensar que los seres humanos deben estar alerta ante la amenaza que pueden representar toda clase tipo de seres artificiales, sobre todo en casos de conflictos armados. 

Durante la sesión de preguntas en el foro Reddit, Bill Gates dijo que estaba de acuerdo con el empresario tecnológico Elon Musk -quien había firmado junto con Stephen Hawking y otros pensadores destacados, una carta abierta sobre el peligro que implican los robots- y que están preocupados sobre cómo se va a utilizar la inteligencia artificial en el futuro. 

"Yo estoy en el bando de los que se inquietan ante las superinteligencias", escribía Gates "Primero, las máquinas pueden hacer un montón de trabajo para nosotros sin ser superinteligentes. Eso es positivo si se gestiona bien. En unas décadas o antes,   la inteligencia artificial será lo suficientemente fuerte como para constituir una preocupación. Y en esto estoy de acuerdo con Elon Musk y otros, y no entiendo por qué puede haber personas no les preocupe". 

En esta declaración, Gates contradice a uno de los jefes de Microsoft Research, Eric Horvitz, quien "fundamentalmente había dicho que " no ve la inteligencia artificial como una amenaza. Según él, cerca de la cuarta parte de los recursos de su equipo de investigación  de Microsoft en Redmond se basa en la inteligencia artificial

Eric Horvitz, director de laboratorio, en Washington está poniendo en marcha un Estudio de los Cien años de Inteligencia Artificial (AI100), en la Universidad de Stanford, California. Dirigido por él y su esposa, su equipo realiza un seguimiento del impacto de la inteligencia artificial (IA) en todos los aspectos de la vida, desde la seguridad nacional y la guerra a la psicología pública y la vida privada. 

Horvitz  ayudó a crear un comité permanente de investigadores interdisciplinarios que producirán un informe cada 5 años. Todos más o menos se muestran contrarios al criterio de Bill Gates. 

Horvitz ve la IA como básica para el cuidado de la salud, “hemos construido sistemas que pueden ser muy valiosos para la mejora de la prestación de asistencia sanitaria y reducir los costos“. 

“Las cuestiones éticas como la automatización de las decisiones, clave del problema, podrían pasar a primer plano en algún momento de la próxima década, cuando el hombre  tenga más vehículos autónomos en las carreteras y controle los sistemas IA del Pentágono para la guerra. También hemos visto luminarias como Stephen Hawking y Elon Musk que hablan en la prensa acerca de cómo IA supondrá una amenaza para la humanidad algún día. Para otros investigadores, este tipo de posibilidad de que el robot sea un peligro para todos nosotros carece de fundamento- sostiene Horvitz. Otros, son ambiguos y algunas de las preocupaciones, ridículas. De cualquier manera, tenemos que hacerles frente. 

Pero no “hubo sangre” en el enfrentamiento Bill Gates-Horvitz, quizás porque él es una de las grandes mentes pensantes de Microsoft, aunque Bill Gates detenta mayor poder en las finanzas de la compañía. 

Un grupo de investigadores del Instituto Tecnológico de Georgia, EE.UU., ha propuesto un nuevo método innovador para realizar test de inteligencia artificial a máquinas electrónicas, el llamado 'Lovelace 2.0', informa 'Tech Times'. La prueba requiere que el robot sea capaz de realizar una obra creativa a partir de criterios artísticos establecidos de antemano. O enseñárselo. 

Tras establecer las reglas de la prueba, un científico-un juez neutral determinará si la tarea creada por la máquina cumple con dichos parámetros o no, sin tener en cuenta el valor artístico de la obra pero exigiendo que los elementos preestablecidos estén presentes en el trabajo final. La obra puede ser pintura, escultura u otra expresión artística y creativa. 

Lovelace 2.0 reemplazará al famoso examen, creada en 1950 por el célebre Alan Turing, el genuino creador de la Inteligencia Artificial (IA), para comprobar si una máquina es inteligente o no, a través de una serie de preguntas cuyas respuestas evaluadas por el juez que no sabrá de antemano si quien le está contestando es un humano o un robot.

 

Los ingenieros de Boston Dynamics  publicaron en YouTube un vídeo de Atlas, su robot humanoide más avanzado, moviéndose como un experimentado karateka. Querían demostrar que Atlas es capaz de realizar los movimientos de Ralph Macchio, que encarnaba a Daniel LaRusso en la película 'Karate Kid'. El vídeo hizo que muchos se preguntaran qué habilidades tendrán los androides automatizados de próxima generación creados para la “Military Inteligentsia” (DARPA), la agencia del Pentágono, si se enfrentan a un humano. Si el vídeo no está trucado, responderá a la interrogante de Bill Gates y Horvitz del peligro de la inteligencia artificial en relación con los humanos. Microsoft tiene la respuesta si consiente en el futuro que la prueba de autenticidad se haga.  

Con una altura de 1, 88 centímetros, 150 kilogramos de peso y figura parecidos a los de 'Terminator', Atlas ha sido hasta hace poco el robot más desarrollado e imponente que se haya concebido. Hay varios otros aún más elaborados en camino. Completa la estructura de Atlas de 28 articulaciones accionadas hidráulicamente, un potente ordenador que le permite desarrollar movimientos inquietantemente similares a los humanos y un equipo de música integrado. Aunque Rusia se ha adelantado últimamente en Inteligencia Militar, con su último robot  Fedor que según sus creadores no es militar y el viceprimer ruso no quiere llamarle soldado, para no asustar, en realidad es un Terminator que ha aprendió a disparar con ambas manos “ sólo como parte de sus tareas de entrenamiento, ya que con esto mejora las habilidades motoras” que le ayudarán a otros trabajos de precisión. El robot además de contar con varios sistemas de inteligencia artificial para actuar de forma autónoma, es capaz también de servir como "avatar" imitando exactamente los movimientos y acciones de cualquier persona, y puede obedecer órdenes de quien lo puede operando a control remoto desde otro sitio. 

Las pruebas y la programación para nuevas tareas continuarán en los próximos meses, y se espera tener nuevos detalles y actualizaciones acerca de las tareas por ahora secretas que podrá realizar Fedor. Desde luego es un robot militar. 

Los nuevos soldados robot han dejado muy atrás a Atlas y están –como Fedor- tan avanzados tecnológicamente que no tienen ningún problema para actuar automáticamente en cualquier teatro de operaciones o liquidar al adversario con facilidad. Pero, ¿el poder de decisión dónde está?. Esa es la cuestión. 

Los robots asesinos, máquinas que pueden tomar la decisión de matar de forma independiente de cualquier control humano, han abandonado la ciencia ficción para entrar de lleno en el terreno de la agencia internacional sobre desarme: la ONU se propuso reunir en Ginebra a decenas de expertos para estudiar todas las implicaciones de los llamados Sistemas Autónomos de Armas  Letales (LAWS). El objetivo de los investigadores era convencer a la comunidad internacional para que impulse una prohibición global de este tipo de armas, que plantea profundos dilemas morales, sobre todo en el terreno de las leyes de la guerra: ¿quién es responsable cuando una máquina autónoma comete un crimen?. Que se sepa, todavía no existe; pero ahí está la tecnología capaz de desarrollarlas. ¿Pero puede hacerlo?.  

La creación de robots asesinos capaces de actuar e incluso de servirse de armas para matar seres humanos “sin preguntar” es motivo de preocupación. El primer debate sobre la eficacia y necesidad de tales armas se celebró hace tiempo en un encuentro informal en la ONU, en Ginebra, y duró cuatro días. Los profesores Ronald Arkin y Noel Sharkey intervinieron como los principales detractores en este debate que se realizó en el marco del Convenio sobre Ciertas Armas Convencionales de la ONU (CCA). El balance del debate fue presentado a esa organización. 

Según Noel Sharkey, cofundador de la Campaña Contra Robots Asesinos y presidente del Comité Internacional por el Control de Armas Robóticas, las armas letales autónomas son  ya una amenaza para la humanidad y, por lo tanto, tienen que ser prohibidas. "No se puede garantizar que los sistemas de armas autónomas respeten el derecho internacional", comentó Sharkey a la BBC, argumentando que la ausencia de diálogo internacional sobre estas armas representa "un gran riesgo para los humanos". 

Por su parte, quienes están a favor de las armas robóticas esgrimen que si algún día se extendiera su empleo, las actuales leyes de guerra bastarían para resolver cualquier problema que pudiera surgir y que, en caso contrario, una moratoria sería una alternativa a la prohibición absoluta. Según ellos, las armas autónomas podrían "reducir de manera significativa el número de víctimas no combatientes" e, hipotéticamente, serían capaces de determinar los blancos, decidir si es necesario usar las armas y hacerlo mejor que los humanos, cree Ronald Arkin, del Instituto Tecnológico de Georgia, citado por la BBC. El problema aquí es que los 'robots asesinos' podrían usarse por las naciones antes de que actúen y convertirse en pacifistas. Por eso Atkin apoya la moratoria temporal, que se opone a la prohibición de las armas robóticas. 

Soy muy optimista sobre la posibilidad de que se alcance un tratado para decretar su prohibición”, explica Noel Sharkey, el famoso profesor emérito de Inteligencia Artificial y Robótica en la Universidad de Sheffield y el académico que ha impulsado la mayor campaña internacional contra los robots militares bajo el lema Stop Killer Robots. “Hay muchas naciones implicadas, aunque este tipo de decisiones requieren mucho tiempo”, agrega. Sharkey, que lleva casi una década dedicado exclusivamente a este problema, asegura que la reunión de Ginebra se produce “porque ha habido tanto debate sobre los robots asesinos, que las delegaciones nacionales en la Convención sobre Armas Convencionales han decidido convocar a expertos para documentarse a fondo antes de tomar una decisión”. 

El objetivo de esta convención es el control de lo que se denominan “armas inhumanas” y se han conseguido acuerdos internacionales para prohibir, por ejemplo, determinados tipos de minas antipersonas, los lásers cegadores... Aunque las pistolas eléctricas siguen usándose sin control. Este armamento inhumano existía de hecho, pero se prohibió justo antes de que estuviese operativo aunque eso duró poco. Lo que pretenden los científicos-anti es que los robots asesinos no lleguen a crearse nunca ni como una posibilidad. 

Las armas sónicas como armamento no letal, no están necesariamente vinculadas al infrasonido o el ultrasonido apenas se han desarrollado: normalmente usan todo un rango de frecuencias y, ante todo, aquellas que llamaríamos simplemente “sonido”. Es el altavoz especial LRAD (siglas en inglés para Dispositivo Acústico de Largo Alcance) que se ha usado años atrás para controlar multitudes en varias protestas en Estados Unidos. Aunque no se construyó única ni específicamente con fines militares (puede funcionar como un excelente medio de transmitir sonidos a larga distancia sin necesidad de conexión digital), no cabe duda de que este es su uso más conocido. Como la pistola eléctrica se ignoran efectos secundarios del altavoz LRAD.

 

Una perspectiva desconocida para  la Guerra Sónica verdaderamente eficaz se encuentra probablemente en desarrollo. Al parecer tal estudio podría proceder de potencias o poderes secretos o terroristas que buscan crear armas inhumanas capaces de orientar el destino de su bando hacia una victoria fulminante en una eventual guerra.

Los grandes estados tratan de crear nuevas armas de destrucción masiva, llevando siempre un as en la manga

Muchas son las ventajas y desventajas de las armas de sonido. Son más voluminosas, pero no requieren de una munición constante, por lo que mientras vayan cargadas – o con una fuente de energía móvil – no necesitan nada más en términos de logística. Además, pueden ser completamente invisibles y permanecer sin ser detectadas mientras funcionan, "bombardeando" y desconcertando a los soldados del enemigo.

Pero es peligrosísima. Una investigación realizada en los Estados Unidos demostró que ultrasonidos de altísima frecuencia (entre 700 y 3.500 kHz) podían causar daño pulmonar e intestinal en los ratones, y según investigaciones de Vic Tandy el infrasonido podría usarse para crear verdaderas “alucinaciones masivas” en las tropas enemigas.

Un proyecto oficial de arma ultrasónica parece haber sido abandonado por países de la ONU. Tampoco nadie lo va a decir y es obvio que ningún gobierno u organización armamentista que esté desarrollando actualmente uno de estos dispositivos va a hacer público su proyecto. Nos hallamos en los linderos de la ciencia-ficción posible. Si existen, las armas ultrasónicas seguramente se mantienen bien ocultas, quizás esperando el momento estratégico idóneo para usarlas.

De acuerdo con las evidencias, aunque no se hayan desarrollado armas de este tipo masivamente si se han usado como estrategias de control y de supresión de  individuos particulares. 

Debido a que los infrasonidos pueden afectar al cuerpo entero de la persona, ha sido objeto de serias investigaciones por parte de organizaciones militares desde la década de 1950, en gran parte la Marina y la NASA, para determinar los efectos de la vibración de baja frecuencia en las personas en sitios grandes y ruidosos, en la parte superior de lanzamiento de cohetes en el espacio, y en maniobras con gran sonido circundante. Al igual que aparentemente cualquier poco de investigación militar, es el tema de la especulación y rumores de todo tipo. 

Entre los inventores de armas infrasónicas menos conocidos había un investigador francés nacido en Rusia llamado Vladimir Gavreau.

Su interés por las ondas infrasónicas surgió durante la década de 1960. Su figura es muy misteriosa pues no aparece en su biografía ni la fecha de nacimiento ni el lugar exacto donde estudió  y se graduó. Tampoco es seguro para quien trabajó. Se sabe que lo hizo tanto para los norteamericanos como para los rusos y murió en fecha desconocida entre el 68 y 72. No se han encontrado más que apuntes escritos en ruso de sus experiencias.

De acuerdo con los medios de comunicación populares de la época (y demasiadas páginas web con verificación interna), Gavreau comenzó a investigar los informes de náuseas en su laboratorio que supuestamente desaparecieron una vez que un misterioso ventilador fue desactivado. Los científicos comenzaron a probarlo, lanzando haces de sonido del “ventilador” hacia sus propios cuerpos y pronto notaron los efectos: dolores en los ojos y la cabeza, debilidad general y fuertes náuseas, lo que les obligó a alejarse rápidamente del aparato. El Kremlin nunca publicó nada de eso, ni quiso oir nada. 

En uno de los experimentos de Gavreau sintió un silbido infrasónico que se cree le llevó a una línea de investigación que tiene aplicaciones militares. El escritor William S. Burroughs describió el dispositivo posiblemente ficticio como:

"Al desarrollar un arma militar, los científicos tienen la intención de volver a la forma de un silbato de un policía, tal vez tan grande como dieciocho pies de diámetro, montarlo en un camión y soplarlo con un ventilador girado por un pequeño motor de avión. Este arma despliega una potencia de 10.000 watios acústicos y es capaz de destruir todo lo que encuentre a su paso a 10 millas de distancia. Podría matar a un hombre fácilmente pero hay una pega: en la actualidad, la máquina es tan peligrosa para sus operadores como para el enemigo. El equipo está trabajando en la forma de manejarla. Se han probado varios sistemas de deflectores, pero el método más prometedor parece ser la propagación de un sonido diferente y complementario a una longitud de onda hacia atrás de la máquina, lo que cambia la frecuencia de la longitud de la antena moviéndose en esa dirección. Este resumen de los experimentos del profesor Vladimir Gavreau con el infrasonido se basa en el artículo del Sunday Times.  El descubrimiento del profesor Gavreau ha sido patentado, y cualquiera puede obtener los planos y la descripción completa en cualquier oficina de patentes de Francia mediante el pago de unos euros.

Supuestamente los descubrimientos de Gavreau fueron la base de programas secretos de gobierno en armas infrasónicas. Éstos se clasificarían definitivamente como armas acústicas. Gavreau había escrito algunos artículos sin importancia en los años sesenta que describían la exposición humana a sonido de baja frecuencia (no infrasónico) y ninguna de las supuestas patentes existía. Los trabajos posteriores y contemporáneos en investigación infrasónica que citan su trabajo lo hacen en el contexto de señalar los problemas de dejar que la prensa se dedique a un trabajo desconcertante. La teoría es que es que la razón por la que su trabajo sobrevivió incluso en los anales de la conspiración es que "Vladimir Gavreau" es un gran apodo para un científico loco que tenía que estar a la altura de algo.

 El científico Vladimir Gavreau y sus descubrimientos fueron objeto de serias investigaciones por parte de organizaciones militares desde la década de 1950, en gran parte la Marina y la NASA, para determinar los efectos de la vibración de baja frecuencia en las personas en sitios grandes y ruidosos, en la parte superior de lanzamiento de cohetes en el espacio, y en maniobras con gran sonido circundante. Al igual que aparentemente cualquier tema de investigación militar, es el centro de especulación y rumores de todo tipo. 

Parece ser que la Unión Soviética comenzó a desarrollar ese tipo de dispositivos, pero pronto los abandonó… algo que también hicieron en  Estados Unidos lo que resulta completamente inexplicable. Era un arma extraordinaria. Un cuartel protegido por dispositivos sónicos bien ubicados, por ejemplo, sería verdaderamente inexpugnable.

Pero ningún gobierno ha hecho públicamente uso de estos dispositivos en ningún conflicto, o bueno, al menos no lo han hecho contra blancos militares. ¿Cómo podemos explicar eso?.

Sinceramente no se encuentra respuesta. La principal posibilidad es que el arma desarrollada a fondo sea imposible de controlar y puede afectar a las tropas propias, algo que es posible aunque improbable. Los científicos maliciosos opinan que podría ser que si alguien ha logrado un dispositivo sónico tan potente y destructivo lo tiene bien guardado, esperando el momento en el que verdaderamente lo necesite. 

A Noel Sharkey, informático británico y experto en robots, le interesa otro aspecto del problema, aparte del control. Es la responsabilidad del autor. ¿Quien disparó?. “Las acciones letales deben tener una cadena clara de responsabilidades. Con las armas robóticas es muy difícil. Un robot no puede ser considerado responsable. Entonces, ¿quién será? ¿El comandante que lo usó? ¿El político que lo autorizó? ¿El proceso de adquisición militar? ¿El fabricante?”.¿Dónde se fabricó el arma? ¿Quién la compró?. 

Hay compradores habituales, como Arabia Saudí. Hay fabricantes natos como Estados Unidos o, mejor, Israel o Japón. 

De hecho, la eficacia del ingenioso escudo israelí Cúpula de Hierro se basa en la robótica. Se han inventado armas que se mueven por su cuenta –por ejemplo, el Samsung SGR-1 surcoreano que patrulla la frontera con Corea del Norte–, aunque por ahora la decisión de abrir fuego sigue siendo humana. 

Con motivo del encuentro de Ginebra, Human Rights Watch y Harvard Law School’s International Human Rights Clinic  publicó un informe que denuncia lo que implicaría el que las máquinas tuvieran la capacidad de decidir sobre la vida y la muerte del enemigo.. Su conclusión es tajante: “Recomendamos prohibir el desarrollo, la producción y el uso de armas totalmente autónomas controlado por un instrumento legal internacional”. 

Una de las ideas contra las que lucha la campaña internacional es que, en principio, no suena mal que sean máquinas, y no seres humanos, los que hagan las guerras. El panorama que describe este documento se parece bastante a Terminator : “Desde una perspectiva moral, muchas personas encuentran terrible la idea de delegar en máquinas el poder de tomar decisiones sobre la vida o muerte en los conflictos armados. Además, aunque las armas completamente autónomas no se puedan dejar llevar por el miedo o la ira, carecerían de compasión, una salvaguarda clave para evitar la matanza de civiles”. 

Debido a que estas armas revolucionarían la guerra, también pueden desatar- y han desatado ya- una carrera armamentística. Cuando estén totalmente desarrolladas, habrá una proliferación de armas creadas por gobiernos irresponsables, grupos armados estatales (fuerzas especiales), o no estatales,   y terroristas. 

El departamento de Defensa de los Estados Unidos preocupado con el lanzamiento de misiles norcoreanos y los submarinos autónomos -chinos o coreanos- y tras muchos estudios ha desarrollado un vehículo no tripulado que se encarga de localizarlos y hundirlos. DARPA (Pentágono) ha creado el Sea Hunter autónomo con permiso para hundir, cualquier submarino, sin previo aviso. El Hunter (Cazador de Submarinos). Tiene 40 metros de largo y sólo pesa 140 toneladas. La Casa Blanca se encarga después de las excusas diplomáticas de Trump para no ir a la III Guerra mundial por eso y las discusiones de chinos, coreanos o japoneses, se dejan a los medios. 

El Sea Hunters es un vehículo que circula por la superficie del mar y es completamente autónomo, sin ningún tipo de tripulación. A bordo nadie ordena, ni hay propiamente cabina de mando... “Él” toma las decisiones. Es totalmente Inteligencia artificial, un IA. Se encarga de rastrear el fondo marino que tenga debajo, en busca de otros vehículos y objetos. 

Como los submarinos híbridos -diesel y eléctricos, chinos o coreanos- eran  una pesadilla para el Pentágono, lo solucionó llamando a DARPA y dándole instrucciones. Al parecer Rusia y China tienen planes de expansión en este área. Y la forma de tenerlos controlados es colocarle un Sea Hunter encima. 

Algunos críticos también argumentan que el uso de robots podría hacer más fácil, para los líderes políticos recurrir a la fuerza para reducir el riesgo de sus propios soldados. A todo esto, habría que sumar la responsabilidad ante las leyes de la guerra. Los expertos trazan el paralelismo con los coches autónomos, una tecnología plenamente desarrollada, pero no circulan porque no se ha resuelto el problema de la responsabilidad en caso de accidente con un coche autónomo ante el estado o las compañías seguros. 

El Comité Internacional para el Control de los Robots Armados (ICRAC), formado por científicos, abogados, expertos en derechos humanos, ha desarrollado un cuestionario sobre los problemas para la seguridad global que plantean las armas autónomas. “Nos encontramos en un momento crítico en la evolución del armamento. Todavía creemos que estamos a tiempo para detener que la decisión de matar sea autónoma, para asegurarnos que todas las armas siguen estando controladas por seres humanos”, mantiene el texto del Comité.


Sobre esta noticia

Autor:
Diasporaweb (1875 noticias)
Visitas:
8829
Tipo:
Reportaje
Licencia:
Creative Commons License
¿Problemas con esta noticia?
×
Denunciar esta noticia por

Denunciar

Comentarios

Aún no hay comentarios en esta noticia.