/ lunes 16 de mayo de 2022

Robots pueden hablar por ti después de muerto

Deadbot se llama un chatbot que puede replicar nuestra personalidad, lo cual abre un debate sobre las implicaciones éticas de este tipo de suplantación tecnológica

Los sistemas de aprendizaje automático se abren camino cada vez más en nuestra vida cotidiana, desafiando nuestros valores morales y sociales y las reglas que los rigen.

En estos días, los asistentes virtuales amenazan la privacidad del hogar; los recomendadores de noticias dan forma a la forma en que entendemos el mundo; los sistemas de predicción de riesgos aconsejan a los trabajadores sociales sobre qué niños proteger del abuso; mientras que las herramientas de contratación basadas en datos también clasifican sus posibilidades de conseguir un trabajo.

Sin embargo, la ética del aprendizaje automático sigue siendo ambigua para muchos.

Buscando artículos sobre el tema para los jóvenes ingenieros que asisten al curso de Ética y Tecnologías de la Información y las Comunicaciones en UCLouvain, Bélgica, me llamó especialmente la atención el caso de Joshua Barbeau, un hombre de 33 años que utilizó un sitio web llamado Proyecto Diciembre para crear un robot conversacional, un chatbot, que simulara una conversación con su prometida fallecida, Jessica.

Conocido como deadbot, este tipo de chatbot permitía a Barbeau intercambiar mensajes de texto con una “Jessica” artificial. A pesar de la naturaleza éticamente controvertida del caso, rara vez encontré materiales que fueran más allá del mero aspecto fáctico y analicé el caso a través de una lente normativa explícita: ¿por qué sería correcto o incorrecto, éticamente deseable o reprobable, desarrollar un robot muerto?

Antes de lidiar con estas preguntas, pongamos las cosas en contexto: Project December fue creado por el desarrollador de juegos Jason Rohrer para permitir que las personas personalicen los chatbots con la personalidad con la que querían interactuar, siempre que pagaran por ello.

El proyecto se construyó basándose en una API de GPT-3, un modelo de lenguaje generador de texto de la empresa de investigación de inteligencia artificial OpenAI. El caso de Barbeau abrió una brecha entre Rohrer y OpenAI porque las pautas de la compañía prohíben explícitamente el uso de GPT-3 con fines sexuales, amorosos, de autolesión o de intimidación.

Calificando la posición de OpenAI como hipermoralista y argumentando que personas como Barbeau eran "adultos que consienten", Rohrer cerró la versión GPT-3 del Proyecto Diciembre.

Si todos podemos tener intuiciones sobre si es correcto o incorrecto desarrollar un deadbot de aprendizaje automático, explicar sus implicaciones no es una tarea fácil. Por eso es importante abordar las cuestiones éticas que plantea el caso, paso a paso.

Dado que Jessica era una persona real (aunque fallecida), el consentimiento de Barbeau para la creación de un robot muerto que la imite parece insuficiente. Incluso cuando mueren, las personas no son meras cosas con las que los demás pueden hacer lo que les plazca.

Por eso nuestras sociedades consideran incorrecto profanar o irrespetar la memoria de los muertos. En otras palabras, tenemos ciertas obligaciones morales con respecto a los muertos, en la medida en que la muerte no implica necesariamente que las personas dejen de existir de una manera moralmente relevante.

Asimismo, está abierto el debate sobre si debemos proteger los derechos fundamentales de los muertos (por ejemplo, la privacidad y los datos personales). Desarrollar un deadbot que replique la personalidad de alguien requiere grandes cantidades de información personal, como datos de redes sociales (ver lo que proponen Microsoft o Eternime), que han demostrado revelar rasgos altamente sensibles.

Si estamos de acuerdo en que no es ético utilizar los datos de las personas sin su consentimiento mientras están vivas, ¿por qué debería ser ético hacerlo después de su muerte? En ese sentido, al desarrollar un deadbot, parece razonable solicitar el consentimiento de aquel cuya personalidad se refleja, en este caso, Jessica.

Por lo tanto, la segunda pregunta es: ¿sería suficiente el consentimiento de Jessica para considerar ética la creación de su deadbot? ¿Y si estaba degradando su memoria?

En qué términos específicos algo podría ser perjudicial para los muertos es un tema particularmente complejo que no analizaré en su totalidad. Vale la pena señalar, sin embargo, que si bien los muertos no pueden ser dañados u ofendidos de la misma manera que los vivos, esto no significa que sean invulnerables a las malas acciones, ni que estas sean éticas.

Finalmente, dada la maleabilidad e imprevisibilidad de los sistemas de aprendizaje automático, existe el riesgo de que el consentimiento proporcionado por la persona imitada (en vida) no signifique mucho más que un cheque en blanco en sus caminos potenciales.

Teniendo todo esto en cuenta, parece razonable concluir que si el desarrollo o uso del deadbot no se corresponde con lo que la persona imitada ha acordado, su consentimiento debe considerarse inválido. Además, si lesiona clara e intencionalmente su dignidad, incluso su consentimiento no debería ser suficiente para considerarlo ético.

* Investigadora de la Universidad de Cataluña.



TE RECOMENDAMOS EL PODCAST ⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Los sistemas de aprendizaje automático se abren camino cada vez más en nuestra vida cotidiana, desafiando nuestros valores morales y sociales y las reglas que los rigen.

En estos días, los asistentes virtuales amenazan la privacidad del hogar; los recomendadores de noticias dan forma a la forma en que entendemos el mundo; los sistemas de predicción de riesgos aconsejan a los trabajadores sociales sobre qué niños proteger del abuso; mientras que las herramientas de contratación basadas en datos también clasifican sus posibilidades de conseguir un trabajo.

Sin embargo, la ética del aprendizaje automático sigue siendo ambigua para muchos.

Buscando artículos sobre el tema para los jóvenes ingenieros que asisten al curso de Ética y Tecnologías de la Información y las Comunicaciones en UCLouvain, Bélgica, me llamó especialmente la atención el caso de Joshua Barbeau, un hombre de 33 años que utilizó un sitio web llamado Proyecto Diciembre para crear un robot conversacional, un chatbot, que simulara una conversación con su prometida fallecida, Jessica.

Conocido como deadbot, este tipo de chatbot permitía a Barbeau intercambiar mensajes de texto con una “Jessica” artificial. A pesar de la naturaleza éticamente controvertida del caso, rara vez encontré materiales que fueran más allá del mero aspecto fáctico y analicé el caso a través de una lente normativa explícita: ¿por qué sería correcto o incorrecto, éticamente deseable o reprobable, desarrollar un robot muerto?

Antes de lidiar con estas preguntas, pongamos las cosas en contexto: Project December fue creado por el desarrollador de juegos Jason Rohrer para permitir que las personas personalicen los chatbots con la personalidad con la que querían interactuar, siempre que pagaran por ello.

El proyecto se construyó basándose en una API de GPT-3, un modelo de lenguaje generador de texto de la empresa de investigación de inteligencia artificial OpenAI. El caso de Barbeau abrió una brecha entre Rohrer y OpenAI porque las pautas de la compañía prohíben explícitamente el uso de GPT-3 con fines sexuales, amorosos, de autolesión o de intimidación.

Calificando la posición de OpenAI como hipermoralista y argumentando que personas como Barbeau eran "adultos que consienten", Rohrer cerró la versión GPT-3 del Proyecto Diciembre.

Si todos podemos tener intuiciones sobre si es correcto o incorrecto desarrollar un deadbot de aprendizaje automático, explicar sus implicaciones no es una tarea fácil. Por eso es importante abordar las cuestiones éticas que plantea el caso, paso a paso.

Dado que Jessica era una persona real (aunque fallecida), el consentimiento de Barbeau para la creación de un robot muerto que la imite parece insuficiente. Incluso cuando mueren, las personas no son meras cosas con las que los demás pueden hacer lo que les plazca.

Por eso nuestras sociedades consideran incorrecto profanar o irrespetar la memoria de los muertos. En otras palabras, tenemos ciertas obligaciones morales con respecto a los muertos, en la medida en que la muerte no implica necesariamente que las personas dejen de existir de una manera moralmente relevante.

Asimismo, está abierto el debate sobre si debemos proteger los derechos fundamentales de los muertos (por ejemplo, la privacidad y los datos personales). Desarrollar un deadbot que replique la personalidad de alguien requiere grandes cantidades de información personal, como datos de redes sociales (ver lo que proponen Microsoft o Eternime), que han demostrado revelar rasgos altamente sensibles.

Si estamos de acuerdo en que no es ético utilizar los datos de las personas sin su consentimiento mientras están vivas, ¿por qué debería ser ético hacerlo después de su muerte? En ese sentido, al desarrollar un deadbot, parece razonable solicitar el consentimiento de aquel cuya personalidad se refleja, en este caso, Jessica.

Por lo tanto, la segunda pregunta es: ¿sería suficiente el consentimiento de Jessica para considerar ética la creación de su deadbot? ¿Y si estaba degradando su memoria?

En qué términos específicos algo podría ser perjudicial para los muertos es un tema particularmente complejo que no analizaré en su totalidad. Vale la pena señalar, sin embargo, que si bien los muertos no pueden ser dañados u ofendidos de la misma manera que los vivos, esto no significa que sean invulnerables a las malas acciones, ni que estas sean éticas.

Finalmente, dada la maleabilidad e imprevisibilidad de los sistemas de aprendizaje automático, existe el riesgo de que el consentimiento proporcionado por la persona imitada (en vida) no signifique mucho más que un cheque en blanco en sus caminos potenciales.

Teniendo todo esto en cuenta, parece razonable concluir que si el desarrollo o uso del deadbot no se corresponde con lo que la persona imitada ha acordado, su consentimiento debe considerarse inválido. Además, si lesiona clara e intencionalmente su dignidad, incluso su consentimiento no debería ser suficiente para considerarlo ético.

* Investigadora de la Universidad de Cataluña.



TE RECOMENDAMOS EL PODCAST ⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Estado

Guerrero supera ya los mil casos positivos de Covid-19

La mayoría de los cuadros que se presentan son leves y no ameritan hospitalización ni cuidados especiales

Estado

Habrá desalojo antes que poner vidas en riesgo advierte alcaldesa

Las intensas lluvias en Chilpancingo obligan a autoridades a plantear la posibilidad de llevar a familias a los albergues

Local

Destrozada, así se encuentra la calle 6 de Enero de la colonia La Laja

Entre baches, fugas de agua potable y drenaje, caminan los vecinos de la popular colonia

Policiaca

Arden dos vehículos y un cuarto en la colonia Progreso

En Acapulco suman 26 vehículos incendiados en lo que va del año.

Salud

Hay más de 5 mil casos de viruela del mono confirmados en el mundo: OMS

La organización apuntó que ha habido algunos casos en niños y en personas que tienen un sistema inmune comprometido

Local

¡Alerta! Desde las Apps estafan a usuarios con préstamos express online

Si no pagan, amenazan a las víctimas y su familia; ni Profeco ni Condusef pueden intervenir porque no son instituciones bancarias

Local

Anuncios móviles operan ilegalmente en Acapulco

Son más de cien las unidades motrices que promueven algún producto o empresa sin los permisos que marca la ley

Estado

Habrá desalojo antes que poner vidas en riesgo advierte alcaldesa

Las intensas lluvias en Chilpancingo obligan a autoridades a plantear la posibilidad de llevar a familias a los albergues

Política

AMLO anuncia solución para el SME: "Ya se está tramitando un apoyo que les corresponde"

Desde hace 12 años, 44 mil trabajadores de LyFC fueron despedidos, algunos de ellos aceptaron liquidaciones y otros emprendieron una lucha laboral