Miles de investigadores y de personalidades del mundo científico lanzaron este martes un llamamiento para pedir la prohibición de las armas ofensivas autónomas, los llamados "robots asesinos". Esta carta fue publicada al mismo tiempo que se abría en Buenos Aires, la Conferencia Internacional Conjunta de Inteligencia Artificial (IJCAI).
"La guerra dependerá de la decisión de entidades que no son humanas", afirma Santiago Koval investigador en Inteligencia Artificial de la Universidad de San Andres en Argentina y firmante de la carta abierta de los científicos.
"La guerra dependerá de la decisión de entidades que no son humanas", afirma Santiago Koval investigador en Inteligencia Artificial de la Universidad de San Andres en Argentina y firmante de la carta abierta de los científicos.
(00:44)
La era de Robocop está a la vuelta de la ezquina. El astrofísico Stephen Hawking y el cofundador de Apple, Steve Wozniak, forman parte de la larga lista de científicos que advierten sobre el peligro del uso de "los robots asesinos" por una simple y sencilla razón. Esas armas no necesitan ninguna intervención humana.
Si bien todas las tecnologías pueden ser usadas para el bien o para el mal, como dice el profesor Toby Walsh, de la Universidad New South Wales de Australia, el avance de las investigaciones en este ámbito predicen un destino sombrío.
"La tecnología de la Inteligencia Artificial (IA) ha alcanzado un punto en que el despliegue de estas armas será una posibilidad técnica (si no legal) en años, no décadas, y hay mucho en juego", añaden los firmantes, entre ellos investigadores y profesores de Harvard, Berkeley, Cambridge, París o Berlín.
¿Cuál es el peligro ?
Toby Walsh explica que la diferencia entre las armas autónomas y los drones que estamos viendo en Irak, por ejemplo, es que un ser humano no interviene en el proceso. "Estamos hablando de un computadora tomando decisiones de vida o muerte y esto significa cruzar un límite moral", advierte Walsh.
Los más críticos con estas armas apuntan a que no distinguen entre civiles combatientes y podrían programar ataques con efectos desproporcionados para la población civil.
Pero desde el punto de vista militar, estas armas tienen la ventaja de reducir las pérdidas humanas en el campo de batalla. De hecho los científicos admiten que las ventajas de esta tecnología son numerosas. Pero lo que más temen es que el uso de estos robots abarataría el coste de ir a la guerra y podría provocar una nueva carrera armamentista. Además, podrían aparecer en el mercado negro y en las manos de los terroristas, dictadores " y señores de la guerra que deseen perpetrar limpiezas étnicas, etc."
Avances científicos
A pesar de todo, los firmantes defienden la necesidad de desarrollar la inteligencia artificial ya que puede ser usada para enfrentar problemas como la inequidad y la pobreza, el creciente costodel cuidado de la salud y el impacto del calentamiento global.
Robots de fábrica. Wikimedia 2014.
Ricardo Rodríguez, investigador en IA de la estatal Universidad de Buenos Aires va más lejos y reusa ser tan alarmista como sus colegas: "Hawking cree que estamos cerca del Apocalipsis con la robótica y que al final la inteligencia artificial va a competir con la inteligencia humana, pero lo cierto es que se está lejos de hacer robots bélicos asesinos".
"Hace 20 años se hablaba del peligro de la clonación y fíjese cómo estamos ahora", recordó.
Existe un precedente de prohibición de armas que todavía no existen, cuando en 1998 se prohibieron las armas láser cegadoras antes de que empezaran a ser producidas en masa.
Comments