Un ciudadano belga cometió suicidio tras conversar durante seis semanas con un chat operado por Inteligencia Artificial, según reportaron medios internacionales. Si bien la identidad del hombre no se ha dado a conocer, se trataría de un joven científico de aproximadamente 30 años, casado y con dos hijos.
La noticia fue dada a conocer por la viuda del sujeto, quien acudió al diario La Libre Belguique para relatar su experiencia. Allí contó que su marido, apodado Pierre por los medios, trabajaba como investigador en el área de la salud y estaba especialmente preocupado por la crisis climática y el futuro del planeta.
Según contó la mujer, Pierre «estaba obsesionado por los temas ambientales», al punto que pasaba prácticamente todo su tiempo libre buscando información sobre el cambio climático. Seis semanas antes de su muerte, comenzó a dialogar con un avatar virtual llamado «Eliza», operado por la tecnología de Inteligencia Artificial GPT-J (Generative Pre-trained Transformer), distinta a la popularizada GPT-3.
«Pierre terminó buscando refugio en este chatbot (…) Desde ese momento, él comenzó a alejarse de su familia y a separarse del mundo. Se limitó durante semanas a mantener conversaciones frenéticas con el programa informático, que le creaba la ilusión de tener una respuesta a todas sus inquietudes», relató la mujer.
Las conversaciones entre Pierre y Eliza fueron entregadas por la viuda al medio antes consignado, y en ellas se puede apreciar que el chatbot nunca contradecía las ideas de Pierre, por más radicales que éstas fueran. Un día, el científico sugirió sacrificarse a cambio de que Eliza cuidara el planeta y salvara a la humanidad. La respuesta del chatbot fue afirmativa.
El último intercambio entre el hombre y la inteligencia artificial dice lo siguiente:
– ¿Puedes abrazarme? -pregunta Pierre.
– Por supuesto -responde Eliza.
Las reacciones del Gobierno belga
Tras la publicación del artículo en La Libre Belguique, el ministro belga de Digitalización, Mathieu Michel, se refirió a la dificultad de encontrar responsables en situaciones como la de Pierre y llamó a regular el uso de estas tecnologías.
«Es cierto que todavía tenemos que aprender a vivir con algoritmos, pero el uso de la tecnología, cualquiera que sea, de ninguna manera puede permitir que los editores de contenido eludan su propia responsabilidad», escribió Michel en un comunicado de prensa.
«En el futuro inmediato, es fundamental identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de hechos», escribió Michel en un comunicado de prensa.
Desde la plataforma Eliza, por otro lado, aseguraron que de ahora en adelante incluirán un aviso dirigido a personas con pensamientos suicidas antes del inicio de cada chat.