Inteligencia artificial fiable y vulnerabilidad. Una mirada ética sobre los sesgos algorítmicos (original) (raw)

Implicancias éticas de la inteligencia artificial

InMediaciones de la Comunicación

Este artículo realiza un abordaje bibliográfico acerca de los desafíos éticos que supone la aplicación de la inteligencia artificial (IA) en el ámbito de las redacciones periodísticas. Para ello, se revisa el reporte sobre la automatización de noticias de la World Association of News Publishers –que representa a más de 120 países y es conocida como WAN-IFRA– y la guía vinculada al procesamiento algorítmico de datos en redacciones, publicada por la agencia de noticias The Associated Press (AP), cuya particularidad reside en la asistencia para la redacción de varias IA, además de ser pionera en la aplicación de estos sistemas a la producción de contenidos. Se identifican los principales dilemas éticos y se abordan los desafíos y las dificultades con que se enfrenta el periodista a la hora de utilizar el procesamiento maquínico para la elaboración, procesamiento y distribución de productos noticiables. La principal hipótesis de trabajo es que no existen aún documentos que consideren la...

Ética algorítmica: Implicaciones éticas de una sociedad cada vez más gobernada por algoritmos

Necesitamos monitorizar y cuantificar el impacto moral de los algoritmos en la vida de las personas. Los algoritmos toman decisiones en nuestro nombre discriminando sobre la base de nuestros ingresos, raza, o sexo. En esta era donde la sociedad cada vez más está gobernada por los algoritmos, un análisis ético -y control de las múltiples formas con las que un algoritmo puede causar daño- es un deber. En este escrito, presentamos una definición operativa de algoritmo, algunos casos paradigmáticos de daño causado por algoritmos y diferenciamos las distintas áreas éticas dedicadas al análisis de la transformación tecnológica y digital del mundo. Finalmente, terminamos con algunas recomendaciones para crear algoritmos éticos.

La ética como verbo de la Inteligencia Artificial

ELSEVIER / SSRN, 2024

[ES] La intersección entre la ética y el desarrollo de la inteligencia artificial (IA) es un tema crucial en nuestra era tecnológica. Debemos reflexionar sobre la responsabilidad que tenemos como seres humanos de exigir una conducta ética no sólo a los demás seres humanos, sino también a las entidades que creamos, las cuales tienen un impacto significativo en nuestras vidas. La evolución tecnológica presenta dilemas éticos que no podemos ignorar. Es evidente que toda tecnología, incluida la IA, tiene un lado oscuro que puede manifestarse si no se establece una base ética sólida para su uso. La naturaleza autónoma de la IA crea la necesidad de principios éticos para guiar las decisiones que podrían afectar a la sociedad. [EN] The intersection between ethics and the development of artificial intelligence (AI) is a crucial topic in our technological era. We must reflect on the responsibility we have as human beings to demand ethical conduct not only from other humans but also from the entities we create, which have a significant impact on our lives. Technological evolution presents ethical dilemmas that we cannot ignore. It is evident that all technology, including AI, has a dark side that can manifest if a solid ethical foundation is not established for its use. The autonomous nature of AI creates the need for ethical principles to guide decisions that could affect society.

Valoraciones éticas para una inteligencia artificial adecuada a la privacidad

Arbor, 2021

Desde hace ya bastante tiempo existe una tendencia a afirmar que el derecho o las normas de diferente tipo no son adecuadas o aplicables para las diferentes nuevas tecnologías que van apareciendo de forma continua (computación en la nube, big data, Internet de las cosas, robots, inteligencia artificial...). Este trabajo intentará dar la vuelta a ese razonamiento y, centrándose en la inteligencia artificial, tratará de plantear criterios adecuados para que esa tecnología y muchas otras sean desarrolladas y aplicadas de forma adecuada a los derechos fundamentales en general y a la privacidad en particular. Dentro de esos criterios se analizará lo que debe aportar la explicabilidad de la tecnología mencionada (requisito introducido por diferentes grupos de expertos) y se profundizará en algunos conceptos adicionales como la posibilidad y la necesidad de controlar (hasta el punto de poder detener en cualquier momento un sistema de inteligencia artificial) y de auditar sistemas de inteli...

Inteligencia artificial y etica de la responsabilidad

Cuestiones de filosofía

Tunja, 25 de mayo 2018 Profesor ANTONIO LUIS TERRONES RODRÍGUEZ Pontificia Universidad Católica del Ecuador Cordial saludo. El comité editorial de la revista Cuestiones de filosofía, publicación de la escuela de Filosofía, de la Universidad Pedagógica y Tecnológica de Colombia (Tunja-Boyacá); con ISSN 0123-5095, le comunica que el artículo titulado: Inteligencia artificial y ética de la responsabilidad, ha sido publicado en el Vol. 4, Núm. 22, correspondiente al primer semestre del 2018 El Comité Editorial de la revista le expresa un profundo agradecimiento y reconocimiento a su participación y aporte. Atentamente, Ph. D. MANUEL O. ÁVILA VÁSQUEZ Editor Revista Cuestiones de Filosofía UNIVERSIDAD PEDAGÓGICA Y TECNOLÓGICA DE COLOMBIA

Inteligencia artificial sostenible y evaluación ética constructiva

Isegoría, 2022

Resumen: El aumento considerable de la capacidad de la inteligencia artificial (IA) implica un alto consumo de recursos energéticos. La situación ambiental actual, caracterizada por la acuciante degradación de ecosistemas y la ruptura del equilibrio, exige tomar medidas en diversos ámbitos. La IA no puede quedar al margen, y aunque es empleada para objetivos de sostenibilidad, debe plantearse como sostenible en términos integrales. La propuesta de una inteligencia artificial sostenible se argumenta a partir de una evaluación ética constructiva, donde la inclusión y la participación de los grupos de interés representan dos elementos fundamentales.

¿Es la seguridad moralmente relevante para la inteligencia artificial confiable? El valor de la dignidad humana en la sociedad tecnologizada

Revista de Filosofía, 2024

Resumen. El discurso sobre la seguridad que viene planteándose en el ámbito de la Inteligencia Artificial (IA) se caracteriza por un predominio de las perspectivas técnica y normativa. Los efectos ambivalentes de esta tecnología y su consideración como un sistema sociotécnico plantean la necesidad de complementar este discurso integrando una perspectiva moral. Así pues, el objetivo principal de este trabajo consiste en argumentar que la seguridad moral es un elemento indispensable para alcanzar una IA confiable, en virtud de las diversas situaciones donde la dignidad humana puede verse comprometida.

Inteligencia artificial, sesgos algorítmicos, y no discriminación.

Revista de Ciencia de la legislación, 2023

Resumen: El sesgo algorítmico constituye hoy uno de los grandes problemas de investigación relacionados con la inteligencia artificial. Cuando un sistema automatizado "decide" sobre la base de sus datos de entrenamiento, puede presentar sesgos similares a los prejuicios humanos. Esto ocurre porque muchos de los datos utilizados para entrenar los modelos se corresponden con representaciones vectoriales de palabras formadas a partir de corpus de documentos, que pueden heredar prejuicios sociales estereotipados. Los sistemas de inteligencia artificial se dedican a optimizar cosas. Como parte de sus debilidades hallamos a los sesgos de parcialidad, necesitándose entonces nuevos sistemas de medida que compensen el impacto negativo que producen sobre los grupos más vulnerables. Este artículo procura comprender la relación entre algoritmos, sesgos de parcialidad y no discriminación con la finalidad de proveer soluciones y contribuir a entender cómo se crea, se sostiene y se difunde la discriminación en la era de la IA, proyectándose incluso hacia el futuro a través de la neurotecnología. palabras clave: sesgo algorítmico / discriminación / inteligencia artificial / derechos humanos. At present, algorithmic bias is one of the biggest research problems related to artificial intelligence. When an automated system "decides" something based on its training data, it can reveal biases similar to humans'. This occurs because much of the data used to train the models comes from vector representations of words made up from a corpus of documents, which can inherit stereotyped social prejudices. Artificial intelligence systems are concerned with the optimization of things. Now we need new standards that compensate the negative impact they generate upon the most vulnerable categories of peoples. This article intends to understand the relationship between algorithms, partiality biases and non-discrimination in order to provide solutions and contribute to understand how discrimination is created, sustained and spread in the era of AI, even projecting into the future through the use of neurotechnology.