José Bautista (lamarea.com)
En 1942, el bioquímico y escritor Isaac Asimov publicó sus tres leyes de la robótica:
1.- Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
2.- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.
3.- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.
Asimov pensó que estas leyes serían su legado más duradero, pero se equivocó. En diciembre de 2016, la comunidad internacional se reunió en Ginebra para debatir sobre el futuro de las armas autónomas letales, robots militares programados para seleccionar y eliminar objetivos humanos. Los llamados robots asesinos violan las leyes que Asimov concibió para sus obras de ciencia ficción: están diseñados para matar y no obedecen las órdenes de un ser humano.
La conferencia se produjo en ausencia de periodistas –La Marea fue el único medio acreditado–en el marco de la Convención de la ONU sobre Ciertas Armas Convencionales, la misma que prohíbe las bombas de racimo, las armas láser y las minas antipersona. Se trató de un acto histórico: era la primera vez que los 123 países ratificantes de la Convención tenían que expresar su posición oficial acerca de estos robots, una tecnología dotada de inteligencia artificial –son capaces de aprender– que ya está cambiando el concepto de guerra pero que aún no está sujeta a ninguna regulación específica. Tras una semana de debates protagonizados por posiciones ambiguas camufladas en la retórica diplomática, la comunidad internacional decidió postergar el debate y crear un Grupo de Expertos Gubernamentales “con fines abiertos”, según recoge la declaración final.
Ese grupo de carácter político y sin poder para emitir decisiones vinculantes es ahora la única puerta que podría conducir a la prohibición. Esta semana esos expertos trasladan sus conclusiones a los representantes nacionales y civiles que vuelven a reunirse en Ginebra. Lo hacen tras recibir un mensaje claro por parte de Francia y Alemania: las dos potencias militares europeas, hasta hace poco partidarias de prohibir los robots asesinos y evitar su proliferación, han dado un giro de 180 grados a su postura y ahora se limitarse a pedir una regulación internacional.
EEUU, Rusia y China ya poseen aviones, vehículos terrestres, barcos y submarinos armados con capacidad para entrar en combate de forma autónoma, aunque ninguno admite haberlos desplegado. Fuentes diplomáticas de Afganistán e Iraq aseguran a La Marea que la Casa Blanca ya ha probado en su territorio distintas armas autónomas. Israel usa con frecuencia los ‘aviones suicida’ Harpy y Harop, un ‘avión suicida’ con carga explosiva que localiza señales de radio y se estrella contra su lugar de procedencia, sin distinguir si se trata de un objetivo civil o militar. Estados Unidos desveló que incluso está desarrollando enjambres de drones autónomos.
La primera voz de a alarma la dio un grupo de 300 científicos en 2013, el mismo año en que nació la campaña para detener los robots asesinos (Campaing to Stop Killer Robots, en inglés), compuesta por 65 organizaciones no gubernamentales de 28 países y activistas con prestigio mundial, entre ellas la Premio Nobel de la Paz Jody Williams (aquí puedes leer la entrevista que le realizó La Marea). A mediados de 2015 más de 2.800 académicos de distintas disciplinas firmaron una carta abierta pidiendo la prohibición de estas armas. Al cabo de pocos meses, más de 16.000 nombres destacados del mundo científico, religioso, empresarial y cultural habían suscrito la misiva, y en la primavera de 2016 un grupo de expertos independientes se reunió para elaborar un informe sobre los dilemas éticos, legales y políticos de las armas autónomas que sirvió de base teórica para la cita de diciembre en Ginebra. Desde entonces no ha parado de crecer el número de personas destacadas de distintos ámbitos que piden la prohibición de estas máquinas militares. No obstante, el asunto parece tan lejano y ficticio que todavía no despierta demasiada atención por parte de los principales medios de comunicación -una percepción que, además, se ve dañada por las imágenes de Terminator con que frecuentemente son ilustrados los artículos sobre robots asesinos-. Poco antes de morir, el astrofísico Stephen Hawking también advirtió sobre los riesgos de esta tecnología. Pero, ¿por qué una tecnología que, según Reino Unido, “aún no existe y quizás nunca exista”, genera tanto revuelo?
La armamentización de las nuevas tecnologías
Para la organización Human Rights Watch, los sistemas autónomos armados letales (LAWS, por sus siglas en inglés) son aquellos capaces de detectar, seleccionar y atacar objetivos sin ningún tipo de intervención humana. EEUU, una de las naciones que muestra reticencias a la prohibición, asegura que esta tecnología “servirá para mejorar el respeto al derecho humanitario internacional”. Los defensores de las armas autónomas letales alegan que permitirán reducir el número de soldados muertos y destacan que estas máquinas están libres de cualidades humanas que chocan con la dinámica de la guerra, pues no padecen hambre, frío ni sed, ni sienten miedo, pánico o compasión, ni necesitan años de entrenamiento o apoyo financiero y sanitario tras la batalla.
La otra cara de la moneda está plagada de interrogantes, los principales de tipo ético: ¿es moral que una máquina decida acerca de la vida de un ser humano? Mary Wareham, portavoz de Stop Killer Robots, señala que esta tecnología plantea un sinfín de dilemas legales, como su incapacidad para discriminar entre objetivos civiles y militares, las dificultades para probar su operatividad o la imposibilidad de que apliquen nociones cualitativas como la compasión. Los especialistas señalan que se trata de una revolución semejante a la que supuso la invención de la pólvora y la bomba nuclear, aunque la investigadora Heather Roff precisa que “se trata de armas precisas, no inteligentes”. Toby Walsh, un reconocido experto en inteligencia artificial, explica que a estos robots les sucede como a los niños: “Sabes cómo aprenden, pero no qué van a hacer con el conocimiento adquirido”. Además, podrían ser hackeados, lo que generaría “serios problemas si caen en las manos equivocadas”.
Las negociaciones en Ginebra concluyeron con tres grandes posturas: las principales potencias militares -y con las mayores industrias armamentísticas- no quieren prohibir los robots asesinos; la mayor parte de los Estados –entre ellos España–aboga por seguir estudiándolos en aras de una futura prohibición, y un grupo de 19 países pide abiertamente la creación de una moratoria que vete su desarrollo y despliegue hasta que haya mecanismos legales internacionales que rijan o veten su uso. EEUU y Reino Unido no ven necesario crear nuevas normas. Francia y Alemania ahora están a favor de estudiar la cuestión con más detenimiento y se oponen a su prohibición. China rechaza el riesgo de proliferación y justifica sus reticencias en “el derecho de las naciones en vías de desarrollo a dotarse de la última tecnología”. Corea del Sur, Israel e India también muestran reticencias y abogan por posponer el tema, mientras que los representantes de la Unión Europea y Japón subrayan los riesgos de tomar medidas apresuradas que limiten el uso de otros robots beneficiosos para la sociedad, como los que sirven para combatir incendios o evacuar heridos. Rusia se opone tajantemente a cualquier veto sobre esta tecnología. Tras un almuerzo con su homólogo ruso, el embajador de España y jefe de delegación en este encuentro explicó a este medio que Rusia trata de ganar tiempo para consultar a sus propios académicos, juristas y militares.
Finalmente, todas estas naciones menos Rusia –se abstuvo en el último minuto– dieron luz verde a la creación del grupo de expertos. La elección del embajador indio para presidirlo genera distintas interpretaciones. Unos lo ven como figura de consenso y otros creen que dará resultados ambiguos. Además, algunas delegaciones admiten en privado que su voto no es consistente con la realidad de sus países. Por ejemplo, un miembro de la delegación turca reconoció a La Marea que, a pesar de su apoyo a la creación del grupo, Turquía está interesada en desarrollar robots asesinos.
Un grupo de 19 países, entre ellos 13 latinoamericanos, lanzaron un llamamiento para la prohibición preventiva. Actualmente ya son 22 las naciones que piden vetar esta tecnología. Ante la duda de si sucederá como con las minas antipersona, prohibidas después de su proliferación por un tratado que sólo han ratificado 40 países, estas naciones decidieron adoptar una propuesta de Jody Williams: crear zonas libres de robots asesinos. Mientras tanto, la sociedad civil sigue organizándose y obtiene pequeñas victorias cargadas de simbolismo. Sin ir más lejos, a principios de abril medio centenar de reconocidos investigadores anunciaron un boicot contra una de las universidades más prestigiosas de Corea del Sur, tras saber que había creado un departamento para crear robots asesinos. La universidad cedió a la presión y anunció que no desarrollará esta tecnología.
Principales argumentos de los defensores de los robots asesinos:
- Son más económicos: los robots asesinos no conllevan gastos de entrenamiento, manutención (alimentación, descanso, salario, indemnización por baja, pensión, etcétera).
- Sus defensores argumentan que sirven para reducir el número de bajas en filas amigas (sustituyen a soldados).
- También aseguran que prohibir el desarrollo de armas autónomas letales podría estancar el desarrollo de otros robots autónomos con fines civiles.
- Son más efectivos: la máquina no siente miedo, pánico ni otras características humanas que pueden limitar la efectividad en el campo de batalla.
- Son más resistentes: el robot tiene más autonomía energética, no siente frío, hambre, cansancio ni otras sensaciones que limitan a un soldado humano.
- Son más precisos: la naturaleza mecánica de estos dispositivos hace que su precisión de tiro y efectividad letal sean mayores que las de un humano.
- Mejor aplicación de la legislación internacional: los defensores de esta tecnología dicen que permitirá un mayor respeto al derecho humanitario internacional.
Principales argumentos de quienes piden prohibir los robots asesinos:
- Principio de proporcionalidad: no puede determinar la fuerza que debe aplicar en su ataque en función de la ventaja militar, situación del enemigo y otros parámetros.
- Principio de distinción: estas máquinas no pueden distinguir objetivos civiles y militares, ni si se trata de heridos, menores de edad, etcétera.
- Incapacidad para razonar y aplicar nociones cualitativas como la compasión.
- Los detractores de estas armas subrayan el riesgo de proliferación, si no se prohíbe de forma preventiva el desarrollo de robots asesinos.
- Imposibilidad de realizar pruebas concluyentes sobre estas máquinas (no se puede simular el caos bélico; se puede estudiar la forma en que aprenden pero no cómo aplican los conocimientos adquiridos).
- Imposibilidad de establecer una cadena de responsabilidad jurídica a los actos de las armas autónomas letales.
- Las limitaciones técnicas y la incapacidad para razonar hacen que el robot asesino no pueda respetar el derecho humanitario internacional.
- Al tratarse de máquinas programadas, existe riesgo de hackeo y pérdida de control de los robots asesinos.
- Además, un error de programación o una avería pueden llevar al robot asesino a ocasionar graves daños a civiles y objetivos no militares (infraestructuras civiles, etcétera).
[Tomado de https://www.lamarea.com/2018/04/10/robots-asesinos-realidad-ficcion.]
En 1942, el bioquímico y escritor Isaac Asimov publicó sus tres leyes de la robótica:
1.- Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
2.- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.
3.- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.
Asimov pensó que estas leyes serían su legado más duradero, pero se equivocó. En diciembre de 2016, la comunidad internacional se reunió en Ginebra para debatir sobre el futuro de las armas autónomas letales, robots militares programados para seleccionar y eliminar objetivos humanos. Los llamados robots asesinos violan las leyes que Asimov concibió para sus obras de ciencia ficción: están diseñados para matar y no obedecen las órdenes de un ser humano.
La conferencia se produjo en ausencia de periodistas –La Marea fue el único medio acreditado–en el marco de la Convención de la ONU sobre Ciertas Armas Convencionales, la misma que prohíbe las bombas de racimo, las armas láser y las minas antipersona. Se trató de un acto histórico: era la primera vez que los 123 países ratificantes de la Convención tenían que expresar su posición oficial acerca de estos robots, una tecnología dotada de inteligencia artificial –son capaces de aprender– que ya está cambiando el concepto de guerra pero que aún no está sujeta a ninguna regulación específica. Tras una semana de debates protagonizados por posiciones ambiguas camufladas en la retórica diplomática, la comunidad internacional decidió postergar el debate y crear un Grupo de Expertos Gubernamentales “con fines abiertos”, según recoge la declaración final.
Ese grupo de carácter político y sin poder para emitir decisiones vinculantes es ahora la única puerta que podría conducir a la prohibición. Esta semana esos expertos trasladan sus conclusiones a los representantes nacionales y civiles que vuelven a reunirse en Ginebra. Lo hacen tras recibir un mensaje claro por parte de Francia y Alemania: las dos potencias militares europeas, hasta hace poco partidarias de prohibir los robots asesinos y evitar su proliferación, han dado un giro de 180 grados a su postura y ahora se limitarse a pedir una regulación internacional.
EEUU, Rusia y China ya poseen aviones, vehículos terrestres, barcos y submarinos armados con capacidad para entrar en combate de forma autónoma, aunque ninguno admite haberlos desplegado. Fuentes diplomáticas de Afganistán e Iraq aseguran a La Marea que la Casa Blanca ya ha probado en su territorio distintas armas autónomas. Israel usa con frecuencia los ‘aviones suicida’ Harpy y Harop, un ‘avión suicida’ con carga explosiva que localiza señales de radio y se estrella contra su lugar de procedencia, sin distinguir si se trata de un objetivo civil o militar. Estados Unidos desveló que incluso está desarrollando enjambres de drones autónomos.
La primera voz de a alarma la dio un grupo de 300 científicos en 2013, el mismo año en que nació la campaña para detener los robots asesinos (Campaing to Stop Killer Robots, en inglés), compuesta por 65 organizaciones no gubernamentales de 28 países y activistas con prestigio mundial, entre ellas la Premio Nobel de la Paz Jody Williams (aquí puedes leer la entrevista que le realizó La Marea). A mediados de 2015 más de 2.800 académicos de distintas disciplinas firmaron una carta abierta pidiendo la prohibición de estas armas. Al cabo de pocos meses, más de 16.000 nombres destacados del mundo científico, religioso, empresarial y cultural habían suscrito la misiva, y en la primavera de 2016 un grupo de expertos independientes se reunió para elaborar un informe sobre los dilemas éticos, legales y políticos de las armas autónomas que sirvió de base teórica para la cita de diciembre en Ginebra. Desde entonces no ha parado de crecer el número de personas destacadas de distintos ámbitos que piden la prohibición de estas máquinas militares. No obstante, el asunto parece tan lejano y ficticio que todavía no despierta demasiada atención por parte de los principales medios de comunicación -una percepción que, además, se ve dañada por las imágenes de Terminator con que frecuentemente son ilustrados los artículos sobre robots asesinos-. Poco antes de morir, el astrofísico Stephen Hawking también advirtió sobre los riesgos de esta tecnología. Pero, ¿por qué una tecnología que, según Reino Unido, “aún no existe y quizás nunca exista”, genera tanto revuelo?
La armamentización de las nuevas tecnologías
Para la organización Human Rights Watch, los sistemas autónomos armados letales (LAWS, por sus siglas en inglés) son aquellos capaces de detectar, seleccionar y atacar objetivos sin ningún tipo de intervención humana. EEUU, una de las naciones que muestra reticencias a la prohibición, asegura que esta tecnología “servirá para mejorar el respeto al derecho humanitario internacional”. Los defensores de las armas autónomas letales alegan que permitirán reducir el número de soldados muertos y destacan que estas máquinas están libres de cualidades humanas que chocan con la dinámica de la guerra, pues no padecen hambre, frío ni sed, ni sienten miedo, pánico o compasión, ni necesitan años de entrenamiento o apoyo financiero y sanitario tras la batalla.
La otra cara de la moneda está plagada de interrogantes, los principales de tipo ético: ¿es moral que una máquina decida acerca de la vida de un ser humano? Mary Wareham, portavoz de Stop Killer Robots, señala que esta tecnología plantea un sinfín de dilemas legales, como su incapacidad para discriminar entre objetivos civiles y militares, las dificultades para probar su operatividad o la imposibilidad de que apliquen nociones cualitativas como la compasión. Los especialistas señalan que se trata de una revolución semejante a la que supuso la invención de la pólvora y la bomba nuclear, aunque la investigadora Heather Roff precisa que “se trata de armas precisas, no inteligentes”. Toby Walsh, un reconocido experto en inteligencia artificial, explica que a estos robots les sucede como a los niños: “Sabes cómo aprenden, pero no qué van a hacer con el conocimiento adquirido”. Además, podrían ser hackeados, lo que generaría “serios problemas si caen en las manos equivocadas”.
Las negociaciones en Ginebra concluyeron con tres grandes posturas: las principales potencias militares -y con las mayores industrias armamentísticas- no quieren prohibir los robots asesinos; la mayor parte de los Estados –entre ellos España–aboga por seguir estudiándolos en aras de una futura prohibición, y un grupo de 19 países pide abiertamente la creación de una moratoria que vete su desarrollo y despliegue hasta que haya mecanismos legales internacionales que rijan o veten su uso. EEUU y Reino Unido no ven necesario crear nuevas normas. Francia y Alemania ahora están a favor de estudiar la cuestión con más detenimiento y se oponen a su prohibición. China rechaza el riesgo de proliferación y justifica sus reticencias en “el derecho de las naciones en vías de desarrollo a dotarse de la última tecnología”. Corea del Sur, Israel e India también muestran reticencias y abogan por posponer el tema, mientras que los representantes de la Unión Europea y Japón subrayan los riesgos de tomar medidas apresuradas que limiten el uso de otros robots beneficiosos para la sociedad, como los que sirven para combatir incendios o evacuar heridos. Rusia se opone tajantemente a cualquier veto sobre esta tecnología. Tras un almuerzo con su homólogo ruso, el embajador de España y jefe de delegación en este encuentro explicó a este medio que Rusia trata de ganar tiempo para consultar a sus propios académicos, juristas y militares.
Finalmente, todas estas naciones menos Rusia –se abstuvo en el último minuto– dieron luz verde a la creación del grupo de expertos. La elección del embajador indio para presidirlo genera distintas interpretaciones. Unos lo ven como figura de consenso y otros creen que dará resultados ambiguos. Además, algunas delegaciones admiten en privado que su voto no es consistente con la realidad de sus países. Por ejemplo, un miembro de la delegación turca reconoció a La Marea que, a pesar de su apoyo a la creación del grupo, Turquía está interesada en desarrollar robots asesinos.
Un grupo de 19 países, entre ellos 13 latinoamericanos, lanzaron un llamamiento para la prohibición preventiva. Actualmente ya son 22 las naciones que piden vetar esta tecnología. Ante la duda de si sucederá como con las minas antipersona, prohibidas después de su proliferación por un tratado que sólo han ratificado 40 países, estas naciones decidieron adoptar una propuesta de Jody Williams: crear zonas libres de robots asesinos. Mientras tanto, la sociedad civil sigue organizándose y obtiene pequeñas victorias cargadas de simbolismo. Sin ir más lejos, a principios de abril medio centenar de reconocidos investigadores anunciaron un boicot contra una de las universidades más prestigiosas de Corea del Sur, tras saber que había creado un departamento para crear robots asesinos. La universidad cedió a la presión y anunció que no desarrollará esta tecnología.
Principales argumentos de los defensores de los robots asesinos:
- Son más económicos: los robots asesinos no conllevan gastos de entrenamiento, manutención (alimentación, descanso, salario, indemnización por baja, pensión, etcétera).
- Sus defensores argumentan que sirven para reducir el número de bajas en filas amigas (sustituyen a soldados).
- También aseguran que prohibir el desarrollo de armas autónomas letales podría estancar el desarrollo de otros robots autónomos con fines civiles.
- Son más efectivos: la máquina no siente miedo, pánico ni otras características humanas que pueden limitar la efectividad en el campo de batalla.
- Son más resistentes: el robot tiene más autonomía energética, no siente frío, hambre, cansancio ni otras sensaciones que limitan a un soldado humano.
- Son más precisos: la naturaleza mecánica de estos dispositivos hace que su precisión de tiro y efectividad letal sean mayores que las de un humano.
- Mejor aplicación de la legislación internacional: los defensores de esta tecnología dicen que permitirá un mayor respeto al derecho humanitario internacional.
Principales argumentos de quienes piden prohibir los robots asesinos:
- Principio de proporcionalidad: no puede determinar la fuerza que debe aplicar en su ataque en función de la ventaja militar, situación del enemigo y otros parámetros.
- Principio de distinción: estas máquinas no pueden distinguir objetivos civiles y militares, ni si se trata de heridos, menores de edad, etcétera.
- Incapacidad para razonar y aplicar nociones cualitativas como la compasión.
- Los detractores de estas armas subrayan el riesgo de proliferación, si no se prohíbe de forma preventiva el desarrollo de robots asesinos.
- Imposibilidad de realizar pruebas concluyentes sobre estas máquinas (no se puede simular el caos bélico; se puede estudiar la forma en que aprenden pero no cómo aplican los conocimientos adquiridos).
- Imposibilidad de establecer una cadena de responsabilidad jurídica a los actos de las armas autónomas letales.
- Las limitaciones técnicas y la incapacidad para razonar hacen que el robot asesino no pueda respetar el derecho humanitario internacional.
- Al tratarse de máquinas programadas, existe riesgo de hackeo y pérdida de control de los robots asesinos.
- Además, un error de programación o una avería pueden llevar al robot asesino a ocasionar graves daños a civiles y objetivos no militares (infraestructuras civiles, etcétera).
[Tomado de https://www.lamarea.com/2018/04/10/robots-asesinos-realidad-ficcion.]
No hay comentarios:
Publicar un comentario
Nos interesa el debate, la confrontación de ideas y el disenso. Pero si tu comentario es sólo para descalificaciones sin argumentos, o mentiras falaces, no será publicado. Hay muchos sitios del gobierno venezolano donde gustosa y rápidamente publican ese tipo de comunicaciones.