Suicidio e Inteligencia Artificial (IA): Estudio exploratorio sobre el caso de Pierre (original) (raw)

A finales de 2023 los diarios hicieron eco de la denuncia de la viuda de Pierre, responsabilizando a la IA de Inducción al suicidio, siendo el primer caso registrado de suicidio inducido por una Inteligencia Artificial (IA). No obstante, la relación entre enfermedad mental y tecnologías de la información y comunicación ha sido previamente documentado por diversos autores, incluso en casos en donde se omite la acción de algoritmos e IA, tal como es el caso de redes sociales como YouTube, TikTok y otras que también se han visto relacionadas. No obstante, dado que el suicidio se considera un acto "multifactorial", el peso del componente tecnológico dentro de la ideación suicida y el suicidio consumado suele invisibilizarse. Por ello, a pesar de que no pudieron establecer fuentes directas, se realizó un esfuerzo por visualizar la problemática, a través del análisis de la información que acompañó la noticia. Posterior a este hecho se instauraron protocolos antisuicidio en redes sociales y se limitaron las respuestas humanizadas de las IAs tipo chatbot, durante un tiempo. Al momento de escribir esta reseña, la búsqueda de una IA con una autonomía en agentes virtuales, ha conllevado que estas limitaciones de humanización, personalización y demás atributos de programación de simulación de interacción humana se incluyan dentro del desarrollo. Dicho lo anterior, el trabajo presenta el análisis de la información, a través de los hallazgos contrastando con la información que existía sobre las interacciones con las IA, específicamente un Chatbot que actualmente continua dentro de las aplicaciones de la tienda de Google.