Las tablas de la ley se acercan, tímidas, a las IAs

Gran Bretaña anuncia para otoño su Cumbre Internacional de Seguridad en Inteligencia Artificial

Sunak y Biden apuestan a esta cumbre para maximizar su campo de influencia en la legislación que se conciba para estos rentables programas

Rishi Sunak

El gobierno de Rishi Sunak anunció el pasado 7 de junio la implementación de la primera cumbre de seguridad en inteligencia artificial. En dicho evento, a celebrarse durante el siguiente otoño, la intervención del presidente estadounidense Joe Biden será decisiva, puesto que coordinará con el ministro Rishi Sunak la evaluación de los riesgos de seguridad y las medidas necesarias para su garantía en este campo computacional. El comunicado oficial de prensa puede leerse en la página oficial del Reino Unido.

Dicho documento  anuncia que Rishi Sunak buscará coordinar junto con Estados Unidos las medidas que los países del G7 adopten en torno a la «unificación de términos» y legislación en torno a la inteligencia artificial, en particular la que es capaz de generar texto, imágenes y otros medios a partir de indicaciones.

También lee: Eligen conservadores a Rishi Sunak como primer ministro de Reino Unido

En el texto se asegura que el gobierno británico considera una ventaja que su país se haya autoexiliado de la Comunidad Europea, pues «le permite actuar con mayor rapidez y agilidad frente a este mercado velozmente cambiante».

Es decir, el Reino Unido por el momento goza de «la rapidez y la agilidad» de posicionarse en sus propios términos ante este fenómeno tecnológico aún débilmente regulado, y lo hace  sin las restricciones de la Comunidad Europea, pero admite el propósito de articularse con Estados Unidos para moldear el tamiz regulatorio internacional bajo el que las inteligencias artificiales operarán por lo que resta de la fase crítica de su desarrollo.

También lee: Advierten que «perecerán» las empresas que no aprovechen la inteligencia artificial

Además, para sustentar las credenciales del Reino Unido para «convocar discusiones sobre el futuro de la inteligencia artificial», el gobierno británico afirma que su país se encuentra en tercer lugar de liderazgo internacional en IA, solamente detrás de Estados Unidos y China.

Solo los gigantes de las IA tendrían voz y voto en la Cumbre Británica

Benji Edwards, editor especializado en IA del portal ars TECHNICA hizo notar que la potencial lista de invitados a la cumbre  (tomando en cuenta los actores mencionados por el gobierno británico) ha despertado reacciones negativas entre  quienes propugnan por una evaluación académica de los riesgos de la IA que sea, en verdad, independiente de los solos intereses corporativos y mercantilistas.

Representación gráfica de un modelo neural artificial

Como ejemplo, cita el siguiente tuit de Rachel Coldicutt, responsable de la consultoría de investigación Careful Industries: «Este boletín de prensa para la Cumbre del Reino Unido de IA presenta a DeepMind, Anthropic, Palantir, Microsoft y Faculty, y ni una sola voz de la sociedad civil o de la Academia, y nadie con experiencia de primera mano en daños algorítmicos».

También lee: Elon Musk: existen posibilidades de que la inteligencia artificial destruya a la humanidad

El documento oficial británico informa que el 25 de mayo pasado, Anthropic, la compañía responsable de Claude, un chatbot similar a Chat GPT, inauguró sus primeras oficinas en Londres. Además, OpenAI, la firma responsable por Chat GPT, ha establecido una sociedad con la firma inglesa Faculty.

Ambas circunstancias tienen complacido a Rishi Sunak, al grado que algunos medios han reportado de fuentes no oficiales que la actitud del ministro ante los gigantes de la IA ha llegado a la deferencia.

Interoperabilidad, en el corazón del Proceso de Hiroshima

Las naciones del G7, cuyos representantes se reunieron en Hiroshima, Japón, entre el 19 y el 21 de mayo pasado, se volvieron a encontrar el 30 de mayo en una reunión virtual denominada «Proceso de Hiroshima de la Inteligencia Artificial», enfocado en la interoperabilidad de las inteligencias artificiales generativas.

Banderas de los países afiliados al G7.

De acuerdo al portal especializado heavy.ia, «la interoperabilidad se refiere a la habilidad básica de diferentes productos o sistemas para conectarse e intercambiar con prontitud información unos con otros», ya sea en la implementación o en el acceso, sin restricción».

Otras prioridades acordadas en el Proceso de Hiroshima de la Inteligencia Artificial son la detección oportuna de información falsa y la protección del copyright.

Los «otros» riesgos de las IAs

Mientras tanto, actores con conocimiento de causa pero no encadenados al juego mercantil que ya florece de las IAs, advierten de riesgos que se proyecta no tanto sobre el copyright o la información falsa, sino sobre la futura viabilidad de las sociedades humanas.

Geoffrey Hinton, psicólogo cognitivo, científico computacional y uno de los tres «padrinos» de la inteligencia artificial, quien recientemente renunció a Google para disponer de su libertad de expresión sobre los peligros de las inteligencias articiales abiertas y generalistas, delcaró recientemente:

Siempre pensé que el cerebro humano era mejor que los modelos computacionales de que disponíamos. Y siempre pensé que al hacer los modelos más como el cerebro, los mejoraríamos. Pero la epifanía que tuve hace un par de meses fue que tal vez los modelos computacionales de que disponemos ahora son mejores que el cerebro. Y si ese es el caso, entonces tal vez en un lapso llegarán a ser mejores que nosotros. Así que esa idea de la superinteligencia, que se había proyectado para un futuro remoto, podría llegar mucho antes de lo esperado. (…) En cuanto a la atención de esa amenaza existencial, me parece que los gobiernos de Estados Unidos, China y Europa podrían coordinarse. Pero detener el desarrollo no me parece factible.

Geoffrey Hinton, en entrevista para Democracy Now! (2 de junio, 2023) El último comentario de la entrevista es en referencia a la carta abierta Pause AI Giant Experiments: an Open Letter, que hasta el momento ha recabado 31, 810 firmas

ACLARACIÓN. Este documento se escribió sin el auxilio de chatbots, loros estocásticos o implantes neurales de aceleración cognitiva.

Síguenos y suscríbete a nuestras publicaciones

Comparte ✌️

Relacionados

Comenta 💬