Expertos en Inteligencia Artificial (IA) llaman a boicotear el proyecto

Académicos de 30 países se oponen al desarrollo de robots asesinos en universidad surcoreana

El KAIST abrió en febrero pasado un centro de investigación con Hanwha Systems, uno de los dos fabricantes surcoreanos de municiones, lo que ha generado alarma en los expertos

Más de cincuenta académicos expertos en Inteligencia Artificial (IA), procedentes de treinta países, han decidido boicotear al Instituto Superior de Ciencia y Tecnología de Corea del Sur (Korea Advanced Institute of Science and Technology, KAIST), en Surcorea, por el hecho de que un nuevo laboratorio creado en colaboración con una compañía líder en la fabricación de armas pueda estar desarrollando robots asesinos.

“Declaramos públicamente que boicotearemos todas las colaboraciones con cualquier parte de KAIST, hasta que el presidente de la compañía proporcione garantías, que hemos solicitado pero no hemos recibido, de que el Centro no desarrollará armas autónomas que carezcan de un control humano significativo”, manifiesta un conglomerado de expertos en una carta dirigida a las autoridades del KAIST.

En este proyecto estaría colaborando el fabricante de material de defensa Hanwha Systems, una empresa que es cuestionada por los expertos en el área, pues ésta vulnera continuamente las convenciones internacionales.

Hanwha System es uno de los mayores fabricantes de armas de Corea del Sur y produce municiones en racimo, que están prohibidas en 120 países.

«La Inteligencia Artificial te permite llevar a cabo muchísimos proyectos interesantes para salvar vidas, también en un contexto militar, pero afirmar abiertamente que el objetivo es desarrollar armas autónomas y tener un socio como éste genera mucha preocupación», indica Toby Walsh, el organizador de esta campaña de boicot y profesor de la Universidad de Nueva Gales del Sur.

El académico alerta que “si se desarrollan las armas autónomas (…) permitirán que la guerra se libre más rápido y a una escala más grande que nunca. Tendrán el potencial para generar armas de terror. No deberíamos entregar la decisión de quién vive o muere a una máquina. Esto cruza una clara línea moral”.

El pronunciamiento de los especialistas se produce previo a la reunión del grupo de expertos de Naciones Unidas sobre Sistemas de Armamento Letales y Autónomos que se celebrará en Ginebra la próxima semana.

“En un momento en que las Naciones Unidas discuten cómo contener la amenaza que representan para la seguridad internacional las armas autónomas, es lamentable que una institución de prestigio como KAIST busque acelerar la carrera armamentista para desarrollar tales armas”, concluyeron los científicos en su misiva.

Mientras, KAIST ha manifestado que no tiene ninguna intención de participar en el desarrollo de sistemas de armas autónomas letales y robots asesinos, por el contrario, le importan los “derechos humanos y los estándares éticos».

No obstante, los académicos expresan su «profunda preocupación» por haberse creado en febrero de este año el llamado «Centro de Convergencia de Defensa Nacional e Inteligencia Artificial».

El investigador británico Geoffrey Hinton, el canadiense Yoshua Bengio y el alemán Jürgen Schmidhuber, afirman que boicotearán al centro hasta que este garantice que no desarrollará armas autónomas.

El presidente del KAIST, Sung-Chul Shin, respondió diciendo que el controvertido proyecto «no incluirá investigaciones sobre armas autónomas incontrolables».

Síguenos y suscríbete a nuestras publicaciones