¿Es ético crear un robot muerto que imite la personalidad de una persona muerta?
Los sistemas de aprendizaje automático se abren paso cada vez más en nuestra vida cotidiana, desafiando nuestros valores morales y sociales y las reglas que los rigen. En estos días, los asistentes virtuales amenazan la privacidad del hogar; los asesores de noticias dan forma a la forma en que entendemos el mundo; mientras que las herramientas de contratación basadas en datos también clasifican sus posibilidades de conseguir un trabajo. sin embargo, la ética del aprendizaje automático sigue siendo confusa para muchos.
Últimamente, el caso ha estado causando revuelo. por Joshua Barbeau, un hombre de 33 años que usó un sitio web llamado Project December para crear un robot conversacional, un chatbot, capaz de simular una conversación con su novia fallecida, Jessica.
Robots conversacionales que imitan a los muertos
Conocido como robot muerto, este tipo de chatbot permitía a Barbeau intercambiar mensajes de texto con una “Jessica” artificial gestionada por una Inteligencia Artificial. La naturaleza éticamente controvertida del caso provocó una serie de preguntas inevitables: ¿Por qué sería correcto o incorrecto, éticamente deseable o reprobable, desarrollar un robot muerto?
Antes de abordar estas preguntas, pongamos las cosas en contexto: Project December fue creado por el desarrollador del juego. jason rohrer para permitir que las personas personalicen los chatbots con la personalidad con la que querían interactuar, siempre que pagaran por ello. El proyecto se construyó basándose en una API de GPT-3, un modelo de lenguaje generador de texto de la firma de investigación de inteligencia artificial OpenAI. El caso de Barbeau ha abierto una ruptura entre Rohrer y OpenAI porque las pautas de la compañía prohíben explícitamente el uso de GPT-3 con fines sexuales, de amor, de autolesión o de intimidación.
Definiendo la posición de OpenAI como hipermoral y afirmando que personas como Barbeau son «adultos que consienten», Rohrer cerró la versión GPT-3 del Proyecto de Diciembre.
Si bien todos podemos tener ideas sobre si es correcto o incorrecto desarrollar un robot muerto de aprendizaje automático, explicar sus implicaciones no es una tarea fácil. Por eso es importante abordar las cuestiones éticas planteadas por el caso, paso a paso.
¿Es suficiente el consentimiento de Barbeau para desarrollar el robot muerto de Jessica?
Dado que Jessica era una persona real (aunque muerta), el consentimiento de Barbeau para crear un robot muerto capaz de imitarla parece insuficiente. Incluso una vez que las personas están muertas, no son meras cosas que otros pueden hacer como les plazca. Es por esto que nuestra sociedad considera incorrecto profanar o irrespetar la memoria de los muertos. En otras palabras, tenemos ciertas obligaciones morales hacia los muertos, en la medida en que la muerte no implica necesariamente que las personas dejen de existir de alguna manera. moralmente relevante.
Asimismo, está abierto el debate sobre si proteger los derechos fundamentales de los difuntos (por ejemplo, la privacidad y los datos personales). Desarrollar un deadbot que replique la personalidad de alguien requiere grandes cantidades de información personal como datos de redes sociales (mira lo que proponen microsoft o Etermine) que se ha demostrado que revelan rasgos altamente sensibles.
Si aceptamos que no es ético utilizar los datos de las personas sin su consentimiento mientras están vivas, ¿por qué debería ser ético hacerlo después de su muerte? En ese sentido, cuando se desarrolla un deadbot, parece razonable pedir el consentimiento de aquel cuya personalidad se refleja, en este caso Jessica.
Cuando el imitado da luz verde
Entonces, la segunda pregunta es: ¿sería suficiente el consentimiento de Jessica para considerar ética la creación de su robot muerto? ¿Y si empañaba la memoria?
Los límites del consentimiento son, de hecho, un tema controvertido. tomemos el «Caníbal de Rotenburg», condenado a cadena perpetua a pesar de que su víctima accedió a ser devorada. Al respecto, se ha argumentado que no es ético consentir cosas que pueden ser dañinas para nosotros mismos, tanto físicamente (vender órganos vitales) como en abstracto (alienar derechos).
En qué términos específicos algo podría ser dañino para los muertos es una pregunta particularmente compleja que no analizaremos completamente. Vale la pena señalar, sin embargo, que si bien los muertos no pueden ser dañados u ofendidos de la misma manera que los vivos, eso no significa que sean invulnerables a las malas acciones, ni que sean éticos. Los muertos pueden sufrir daños en su honor, reputación o dignidad (por ejemplo, campañas de difamación póstuma) y la falta de respeto por los muertos también perjudica a sus allegados. Además, portarse mal con los muertos nos lleva a una sociedad más injusta y menos respetuosa con la dignidad de las personas en general.
Finalmente, dada la maleabilidad e imprevisibilidad de los sistemas de aprendizaje automático, existe el riesgo de que el consentimiento otorgado por la persona (viva) imitada no signifique mucho más que un cheque en blanco en sus caminos potenciales.
Teniendo todo esto en cuenta, parece razonable concluir que si el desarrollo o uso del deadbot no coincide con lo que la persona imitada ha aceptado, su consentimiento debe considerarse inválido. Además, si atenta clara e intencionadamente contra su dignidad, ni siquiera su consentimiento debería ser suficiente para considerarlo ético.
¿Quién asume la responsabilidad?
Una tercera pregunta es si los sistemas de inteligencia artificial deberían aspirar a imitar cualquier tipo de comportamiento humano (independientemente de si esto es posible).
Esta es una preocupación de larga data en el campo de la IA y está estrechamente relacionada con la controversia entre Rohrer y OpenAI. ¿Deberíamos desarrollar sistemas artificiales capaces de, por ejemplo, cuidar de otros o tomar decisiones políticas? Parece haber algo en estas habilidades que diferencia a los humanos de otros animales y máquinas. Por lo tanto, es importante tener en cuenta que la explotación de la IA con fines tecno-solucionistas cómo la sustitución de seres queridos puede conducir a una desvalorización de lo que nos caracteriza como seres humanos.
La cuarta pregunta ética es quién es responsable de los resultados de un robot muerto, especialmente en el caso de los efectos nocivos.
Imagina que el robot muerto de Jessica aprendiera de forma independiente a comportarse de una manera que empequeñeciera su memoria o dañara irreversiblemente la salud mental de Barbeau. ¿De quién sería la responsabilidad? Los expertos en inteligencia artificial responden a esta pregunta resbaladiza a través de dos enfoques principales: primero, la responsabilidad recae en quienes están involucrados en el diseño y desarrollo del sistema, siempre que lo hagan en función de sus intereses y cosmovisiones particulares; segundo, los sistemas de aprendizaje automático dependen del contexto, por lo que las responsabilidades morales por sus resultados deben distribuirse entre todos los agentes que interactúan con ellos.
Aquí el discurso se complica.
En primer lugar, sería difícil responsabilizar a OpenAI después de que prohíba explícitamente el uso de su sistema con fines sexuales, para hacer el amor, para autolesionarse o para intimidar.
Parece razonable atribuir un nivel significativo de responsabilidad moral a Rohrer porque él: (a) diseñó explícitamente el sistema que permitió la creación del robot muerto; (b) lo hizo sin anticipar medidas para evitar posibles resultados negativos; (c) era consciente de que no cumplía con las directrices de OpenAI; y (d) se benefició de ello.
Y dado que Barbeau ha personalizado el robot muerto basándose en características particulares de Jessica, parece legítimo responsabilizarlo en caso de que degrade su memoria.
Ética, bajo ciertas condiciones.
Entonces, volviendo a nuestra primera pregunta general de si es ético desarrollar un deadbot de aprendizaje automático, podríamos dar una respuesta afirmativa siempre que:
- tanto la persona imitada como la persona que personaliza e interactúa con ella han dado su libre consentimiento a una descripción lo más detallada posible del diseño, desarrollo y usos del sistema;
- se prohíben los desarrollos y usos que no se ajusten a lo consentido por la persona imitada o que sean contrarios a su dignidad;
- las personas involucradas en su desarrollo y quienes se benefician de él asumen la responsabilidad de sus posibles resultados negativos. Tanto de forma retroactiva, para tener en cuenta los hechos ocurridos, como en perspectiva, para evitar activamente que sucedan en el futuro.
Este caso ejemplifica por qué la ética del aprendizaje automático es importante. También ilustra por qué es esencial abrir un debate público que pueda informar mejor a los ciudadanos y ayudarnos a desarrollar medidas políticas para hacer que los sistemas de IA sean más abiertos, socialmente justos y compatibles con los derechos fundamentales.
Fuente: The Conversation