¿De qué hablamos cuando hablamos de ética algorítmica?

 

¿Se trata de una nueva ética aplicada? ¿Es una rama de la tecnoética? ¿Tiene futuro? ¿Es una moda?

Entendemos por ética algorítmica aquella rama de la ética aplicada a la tecnología que explora y trata de resolver el conjunto de cuestiones que afloran a raíz de la programación de un algoritmo.

Sin embargo, antes de avanzar en esta reflexión, se impone la necesidad de definir, aunque sea, de manera muy inicial, la naturaleza de un algoritmo.

 

Definición de algoritmo

¿De qué hablamos cuando hablamos de un algoritmo?

La ética algorítmica se basa en la estimación moral de los algoritmos
Algoritmo. Imagen 1

Si nos referimos a las matemáticas, que es el campo original del término, podemos decir que un algoritmo es un conjunto finito de operaciones que debemos seguir para resolver un problema.

Precisemos. Es un conjunto ordenado de operaciones, es decir, una cadena de instrucciones que deben seguirse una tras otra. Una buena forma de ilustrarlo puede ser el ejemplo de una receta de cocina, que sigue siendo un algoritmo sencillo. En toda receta se describe un procedimiento concreto y ordenado, por lo que cada una de las operaciones que se describen, constituyen lo que se llama un algoritmo.

Su objetivo es resolver un problema, es decir, tiene un objetivo acotado. Cuando se escribe un algoritmo, el objetivo es obtener un resultado. No se trata solo de escribir una serie secuenciada de órdenes que no llevan a ninguna parte, sino de hacerlo de manera racional y con un propósito.

Lo que ocurre es que la realidad siempre más compleja que nuestros diseños. Irrumpe lo imprevisto, lo que no estaba planificado. Si, por ejemplo, se crea un algoritmo diseñado para actuar en la vida real, las órdenes incluidas en ese algoritmo deben incluir instrucciones teniendo en cuenta las diferentes situaciones que se pueden encontrar.

Así, la forma del algoritmo se convertirá en un enorme árbol de instrucciones que, dependiendo de su complejidad, puede incluso ofrecer resultados sorprendentes que nunca podríamos haber previsto.

 

Por ejemplo

Un ejemplo paradigmático de esto sería la programación de vehículos autónomos en caso de accidente inevitable. ¿Cómo debe reaccionar el vehículo en cuestión frente a un dilema en el que debe escoger entre A y B? ¿Cómo arbitrar los riesgos que corren unos y otros?

Sin embargo, los vehículos autónomos solo son un ejemplo. La mayor parte de algoritmos son susceptibles de parámetros y opciones por defecto que tienen una inmensa trascendencia moral.

 

Una ética aplicada a la programación

La ética algorítmica es parte de la ética de la inteligencia artificial
Moral Machines. Wallach y Allen. Imagen 2

Los filósofos aman las categorías, las definiciones, en definitiva, los conceptos. Justamente uno de los campos de la ética aplicada consiste en generar categorías útiles para comprender la realidad y, eventualmente, para transformarla. La noción de ética de los algoritmos nos ayuda a desarrollar este análisis conceptual. La expresión indica, de entrada, un ámbito de aplicación: el conjunto de cuestiones morales que se plantean en la programación.

Se puede situar esta área dentro de un subconjunto de cuestiones en ética del IA, que se refieren a lo bueno, justo o virtuoso de hacer con sistema de IA. La ética de la IA es, a su vez, una rama de la ética de la tecnología o tecnoética, más precisamente, de las tecnologías de la información.

Pero la ética de los algoritmos está muy cerca de lo que se llama ética de la robótica o ética de las máquinas. Esta rama tiene como referente el libro de Wallash y Allen, Moral Machines. En ese ensayo, editado en el 2008, los autores sientan los fundamentos de una cuestión inédita, hasta entonces, en la filosofía práctica: ¿Cómo desarrollar una moralidad computacional?

La ética algorítmica se distingue de la de los robots por ser más englobante. Un algoritmo no es indispensable dentro de un cuerpo robótico o de una encarnación concreta para plantear cuestiones morales. Una aplicación de investigación, recomendación o traducción puede, de hecho, ser evaluada moralmente. La cuestión que permanece siempre es la misma: ¿Cómo actuar dentro del programa y del algoritmo para conformarse con los estándares morales?

 

¿La ética algorítmica es lo mismo que de la ética de las máquinas?

De hecho, la ética algorítmica solo se distingue de la ética de las máquinas por algunas connotaciones. Rompe con la idea unitaria que relacionamos con la imagen de la máquina. Las máquinas nos parecen, espontáneamente, individualidades, artefactos, pacientes morales. Sin embargo, sería más adecuado, desde un punto de vista ontológico, hablar en plural y emanciparse de esta concepción unificada de las máquinas. Quizá habría que ver las máquinas dotadas de IA como entidades especializadas que permanecen cognitivamente opacas.

El corazón del problema no es el artefacto, ni su forma, sino la programación que lleva instalada en su interior. Desde el punto de vista de la filosofía moral, los robots o las máquinas no son más que envoltorios de los algoritmos.

La ética algorítmica estimula a los filósofos a profundizar en los sistemas internos y a conocerlos con precisión y transparencia. Dedicarse a la ética algorítmica es concentrarse en un área muy particular del saber, pero también en una escala especial, muy poco habitual.

¿Cómo se manifiesta ese cambio de escala? ¿Qué hace diferente a la ética algorítmica de la ética de la IA que la engloba?

Algunas preguntas 

Veámoslo con algunas preguntas prácticas.

¿Es necesario implementar los vehículos autónomos en las ciudades? Ética de la IA.

¿Cómo programar un vehículo autónomo en caso de accidente inevitable? Ética algorítmica

¿Hay que censurar a los robots sexuales? Ética de la IA.

¿Deberían estos robots ofrecer la opción de simular una resistencia? Ética algorítmica.

¿En qué condiciones un robot debería tener derechos? Ética de la IA.

¿Debería una aplicación de encuentros interpersonales automatizar o reducir ciertas discriminaciones? Ética algorítmica.

Mientras que la ética de la IA sostiene que los sistemas de IA no deberían engendrar discriminaciones, la ética algorítmica se interroga por la traducción de estos principios generales en el código informático, ya que, de lo que se trata en ella es, justamente, codificar la moral.

Los algoritmos exigen que se tomen decisiones terriblemente precisas y nítidamente claras. Esto significa que la ética algorítmica no puede quedarse en el terreno de la duda o vacilación.

Este tipo de trabajo nos obliga a pensar sobre los modelos de justicia disponibles ya aplicar uno de ellos. La Technology Review publicó una bella ilustración del problema a partir del caso COMPAS, un sistema de predicción de la criminalidad criticado por tratar, injustamente, a las personas negras.

Los dos enfoque son necesarios

La ética algorítmica no está reservada, únicamente, a la programación. Desarrolla una perspectiva descendente. Mientras que la IA favorece una perspectiva ascendente, más macro, cerca de la ética de la tecnología, la ética algorítmica focaliza la atención en el detalle, en el ámbito micro.

No es de extrañar que los filósofos analíticos expresen sus afinidades con las exigencias de transparencia y precisión de la ética de los algoritmos, mientras que, en cambio, los filósofos continentales se sientan más cerca de los grandes relatos de la ética de la IA.

Sin embargo, los dos enfoques son necesarios. Mientras que la ética de los algoritmos explora el funcionamiento interno de las máquinas, la ética de la IA se interesa, globalmente, por el ser humano, por su historia, por su entorno y por sus relaciones con el artefacto, en definitiva, por todo lo que la implementación de la Inteligencia Artificial puede alterar y transformar.

Es fácil adivinar que la frontera entre estas dos áreas de estudio no es clara ni nítida. Si es posible tener una programación moral satisfactoria para un robot, tema que estudia la ética algorítmica, entonces, existe una buena razón para fabricarlas, tema que corresponde a la ética de la IA, pero, ¿y si no es así?

Una aplicación que parezca absolutamente necesaria puede coaccionar la toma de decisiones en la ética algorítmica, dando a una app anti pandemia que, por ejemplo, dé la prioridad a la seguridad sobre el respeto de la vida privada. El análisis moral del diseño pertenece a la ética algorítmica, mientras que la reflexión sobre la tensión entre el derecho a la seguridad y la vida privada corresponde a la ética de la Inteligencia Artificial.

No son dos territorios separados

La frontera no está nada clara. De hecho, la ética de la IA y la de los algoritmos forman, más bien, dos polos ligados por un continuum que dos territorios separados.

Tomemos, por ejemplo, la voz de los asistentes personales. ¿Debe ser, por defecto, femenina, masculina o neutro? ¿Debe parecer joven, madura o de una persona mayor? ¿Debe imitar una voz humana o poseer un acento metálico, robótico, fácil de distinguir? ¿Qué timbre de voz debe escogerse?

Asistentes virtuales: Siri, Google Home, Alexa y Cortana. Imagen 3

Todas estas cuestiones conciernen al diseño del asistente personal, la forma en que interacciona con los interlocutores humanos. Son relativamente precisas. Sin embargo, dependen de un conjunto de consideraciones muy generales como, por ejemplo, con qué tipo de robots queremos vivir.

La necesidad de un trabajo interdisciplinar

Dicho de otra forma, una decisión que puede parecer circunscrita, únicamente, al diseño vocal de un robot social presupone una reflexión global, a escala de la ética de la IA. Los programadores conocen mejor los algoritmos que la ética de los algoritmos. Esta área se les reserva, pero no debería ser así, por la trascendencia y consecuencias que tiene la programación. Más bien debería ser la resultante de un trabajo interdisciplinario entre filósofos, ingenieros, informáticos, teólogos, matemáticos y sociólogos.

Sin embargo, este trabajo interdisciplinario es sumamente difícil de establecer por múltiples razones. Sufrimos lo que José Ortega y Gasset llamó la barbarie de la especialización.

La especialización dificulta el diálogo

Cada vez sabemos más de menos territorio. Los lenguajes de cada disciplina se convierten en idiolectos ininteligibles para los demás profesionales. Es necesaria una lingua franca para que las diversas disciplinas se puedan encontrar y para que se puedan examinar desde diferentes perspectivas los problemas y las implicaciones que se derivan de las programaciones.

Con demasiada frecuencia, los especialistas viven en universos paralelos, ubicados en esferas lingüísticas muy alejadas, de modo que el diálogo se hace muy difícil y la comprensión mutua aún más.

Sin embargo, es indispensable que el filósofo transite de su torre de marfil hacia el mundo de la ingeniería, de la robótica y de la informática, pero, a la vez, también es imprescindible que los ingenieros, los informáticos y los matemáticos presten atención a los problemas éticos que se derivan de sus programaciones, del diseño de sus circuitos.

Las máquinas dotadas de Inteligencia Artificial deben tomar decisiones. Generalmente deben determinar una opción por defecto. Es sabido que gran parte de usuarios no cambia los parámetros iniciales.

Conviene, pues, preguntarse si las voces femeninas de Siri o Google Home no refuerzan el estereotipo que vincula la polaridad femenina al servicio. Igualmente, cabe preguntarse qué producirá, en el cerebro de la gente, la asociación de una entidad no biológica a un género. Quizás permite concluir que no es una buena idea reproducir en los artefactos inanimados la dicotomía masculino/femenino.

 

¿Es necesario automatizar ciertas normas?

Los asistentes personales dotados de Inteligencia Artificial y otros robots no desembarcan en un mundo moralmente virgen ni puro. Operan en un mundo que está saturado de desafíos éticos y, porque no decirlo, lleno de injusticias. Por él circulan varias jerarquías sociales, estereotipos y todo tipo de sesgos implícitos. Una parte importante del trabajo en ética algorítmica radica en identificarlos y preguntarse si es legítimo automatizarlos y reproducirlos en las máquinas inteligentes utilizamos.

Parece difícil para los programadores sustraerse a esta responsabilidad. Al igual que la opción por defecto, la elección del menú es ya un arbitraje moralmente cargado. En efecto, programar es tomar partido. Por eso, es esencial discernir cómo y de qué forma se debe programar un dispositivo. Cualquier decisión que se tome contiene una carga moral, ya sea positiva o negativa, tiene unas consecuencias que es necesario evaluar anticipadamente.

Un pequeño ejemplo: ¿qué acento se pone?

En Francia, por ejemplo, los asistentes vocales tienen acento francés y en Quebec, acento quebequés. ¿Qué es el acento francés? ¿Es el de Toulouse, el de Marsella o el de Poitiers? Es el de la capital por oposición al de las provincias. No es un acento popular; es el de la televisión. Pero, ¿Quién no nos asegura que sería una buena idea que en Francia Alexia respondiera con el acento quebequés y Siri tuviera el acento de Haití? ¿Quién sabe si esto no facilitaría la vida a los inmigrantes quebequeses en Francia y de los haitianos en Quebec? Al menos se podría dar la elección a los usuarios. Se podría ofrecer esa opción entre una decena de acentos.

No hay programas neutros

He aquí un pequeño ejemplo. Irrelevante puede pensar alguien, pero que tiene sus consecuencias y sus efectos. Las opciones que aparecen en el menú de entrada forman parte de una selección que obedece a unos criterios, una toma de partido. No hay menú neutro, como no existe un índice objetivo en un libro, ni tampoco un programa de asignatura que pueda calificarse de absolutamente objetivo y neutro.

Los temas que se presentan, el orden y la duración de cada uno de ellos es una decisión del profesor que obedece a distintas razones. No siempre explica estas razones, ni las justifica delante de sus alumnos, pero en ningún caso son la expresión de una decisión imparcial u objetiva. Quizá prioriza los temas que él conoce mejor o bien los selecciona porque cree que los alumnos deben conocerlos necesariamente para dominar su profesión. No lo sabemos y si no se lo explica a los alumnos en un ejercicio de honestidad intelectual, tampoco lo sabrán ellos.

Hay que escoger a la hora de realizar la programación y no es evidente que los sistemas de IA lo hagan a partir de las normas y categorías que están en juego. Quien programa proyecta sus criterios o bien los de la compañía para la que trabaja en el corazón del artefacto que diseña.

 

Autonomía en la toma de decisiones

Otra área específica de la ética algorítmica tiene que ver con la noción de autonomía. En muchos casos, no se trata de programar una simple reacción a una señal, como el humo que active al sistema de alarma. Se trata de dotar al sistema de una cierta capacidad de decisión integrándole diversas informaciones que le permitan tomar decisiones a partir de los parámetros que ha recibido.

Decimos que un ser es autónomo cuando se rige por su propia ley (autos nomos). Decimos, en cambio, que un ser es heterónomo cuando se regula por la ley de otro (heteros nomos). El ser humano, a diferencia de los demás seres vivos, tiene capacidad de regirse por su ley, de pensar por sí mismo, de determinar sus actos.

Esta particularidad es, según Immanuel Kant, el argumento de la distinción humana. Vivir conforme el imperativo categórico que ordena desde el núcleo de la razón pura práctica es, justamente, lo que hace diferente al ser humano del resto de los seres vivos, sin embargo, las máquinas dotadas de Inteligencia Artificial, ¿se pueden considerar autónomas? Y, si lo son, ¿en qué sentido?

La Inteligencia Artificial del juego de go se adapta a su adversario, puede reaccionar con golpes asombrosos. ¿Qué hacer con los comportamientos más complejos y moralmente pertinentes? ¿Cómo programar una entidad autónoma o parcialmente autónoma?

Volviendo a los vehículos autónomos

Modelo de coche autónomo de General Motors. Imagen 4

Para lograr esto es necesario ir más allá de implementar una regla de conducta. Es imprescindible encuadrar un conjunto de meta reglas. Los vehículos autónomos permiten ilustrar la cuestión que estamos planteando.

Es necesario programarlos, lógicamente, para que se detengan cuando hay semáforo en rojo, pero el sistema puede ser más inteligente que eso. Puede conseguir, por ejemplo, que el vehículo pase en rojo si así puede evitar un accidente o si lleva un herido muy grave en su interior que necesita urgentemente atención médica.

Programar es dibujar un circuito, pero en el circuito hay cruces y en virtud de las circunstancias en las que se encuentre el artefacto inteligente, deberá tomar una decisión u otra, deberá, incluso, transgredir la norma de circulación.

Aquí surge la noción de autonomía aplicada a la Inteligencia Artificial. Programar moralmente un vehículo autónomo es dotarle de la capacidad de decidir por sí mismo. En cierta medida, es delegarle, como sujeto, el proceso de toma de decisiones.

Solo la persona es sujeto de decisiones libres y responsables

Tradicionalmente, en el marco de la filosofía moderna, desde René Descartes hasta Bertrand Russell, se entiende que solo es sujeto de decisiones libres y responsables el ser humano. La noción de sujeto se ha reservado únicamente para la persona, entendida como un ente capaz de actuar autónomamente.

Algunos autores contemporáneos como Peter Singer, Hugo Tristram Engelhardt o John Harris, entre otros, distinguen entre seres humanos y personas y sitúan el punto de distinción en la autonomía.

Siguiendo ese hilo discursivo, un recién nacido, por ejemplo, sería un ser humano, pero todavía no sería persona, porque no tiene la capacidad de tomar decisiones libres y responsables por sí mismo, de actuar autónomamente. Un enfermo de Alzheimer en estado avanzado sería un ser humano, porque pertenece a la especie humana, pero no sería una persona, porque no es capaz de vida autónoma, tomar decisiones a la luz de sus valores personales.

La autonomía es el gran principio de la Modernidad, el valor más elevado. Vivir de forma autónoma es resistir al embate de los demás, a la influencia de los poderes fácticos; es liberarse de la opresión del otro, ya sea el Estado, ya sea la Iglesia o de cualquier presión del exterior. Vivir de forma autónoma es, para utilizar la expresión existencialista, ser auténtico, hacer de la propia vida una obra de arte, como dice Søren Kierkegaard, un proyecto único y singular en la historia.

¿Se pueden considerar sujeto autónomo a una máquina?

Proyecto de investigación de la UJI con robots con y sin apariencia humana para la recepción en hoteles. Imagen 5

¿Se puede decir de una máquina capaz de tomar decisiones por sí misma que es un sujeto autónomo? ¿No es excesivo aplicarle esa categoría filosófica? ¿Al tomar decisiones abandona la condición de objeto, de cosa, para convertirse en un sujeto autónomo? Si es un sujeto, ¿no deberían reconocérsele derechos como a las personas? ¿No significa una transgresión del espíritu y de la letra de la filosofía moderna?

Esta delegación de la autonomía en las máquinas plantea muchas cuestiones en la frontera entre la robótica y la antropología: Si un robot está programado, ¿en qué es autónomo? ¿Se puede hablar realmente de autonomía? ¿No es una contradicción in plazos?

Si está programado, significa que alguien le ha incrustado un conjunto de meta reglas o criterios generales para tomar decisiones cuando se encuentra en determinadas circunstancias. No actúa, solo, de forma mecánica, automatizada, porque se detiene y discierne qué debe hacer, pero lo hace a la luz de unos criterios que alguien le ha puesto desde fuera.

Si el argumento es correcto, puede decirse que el artefacto es heterónomo, porque toma decisiones a luz de unos criterios que le han sido puestos desde fuera, pero, a la vez, los ejecuta la máquina, de tal forma que incluso pone en crisis algunas reglas recibidas, como respetar el semáforo rojo o pasar cuando está verde, porque el criterio general rige sobre la norma.

¿No estarán también programadas las personas?

Sin embargo, este debate también se puede proyectar sobre la condición humana, en palabras de Hannah Arendt. ¿Estamos programados nosotros? ¿Quién nos ha introducido el imperativo categórico? ¿Quién nos ha instalado la ley natural de la que hablaban ya los filósofos estoicos? ¿Somos realmente autónomos o nos lo parece?

El viejo debate entre determinismo e indeterminismo entra, de paso, en el escenario. Según los deterministas, la libertad es un espejismo, la autonomía humana es un cuento de hadas. Nos creemos que somos libres, pero estamos programados de antemano. No decidimos sobre lo que nos ha sido dado de antemano. Según los indeterministas, en cambio, el ser humano, en el núcleo último de su conciencia, es capaz de tomar decisiones libres y responsables, dispone de un yo capaz de ejercer su autodeterminación.

¿Son educables las máquinas?

Un robot de transporte no tiene necesidad de ser libre en el sentido filosófico del término para decidir si debe respetar o no el semáforo rojo. Lo que hace falta es que tenga instaladas meta reglas y una capacidad de predecir lo que le pasará. El ser humano se salta el semáforo en rojo y no siempre porque existe una causa mayor como la de salvar una vida, sino, sencillamente, por distracción, por espíritu aventurero o por negligencia.

¿Se puede considerar que programar una entidad autónoma es, más o menos, cómo educarla? ¿Es esta la palabra o debemos guardar el verbo educar y sólo debemos utilizarla cuando nos referimos a los seres humanos? ¿Se pueden educar a los animales? ¿Y las máquinas? ¿Es lo mismo educar que adiestrar?

El baile semántico es inevitable cuando afrontamos filosóficamente este tipo de cuestiones. ¿Se puede educar a los vehículos autónomos a tomar las curvas con cuidado sobre un suelo helado o evitar que aplasten a un animal cuando cruce la carretera? ¿Se le puede enseñar a resolver dilemas trágicos como el de salvar a un niño o a un anciano?

 

Conclusión

La ética algorítmica es, como decíamos al principio, una ética aplicada a la tecnología emergente. Evoca cuestiones que trascienden el plano de la ética aplicada y nos sumerge, de nuevo, en los acuciantes debates de la antropología filosófica: la libertad, el libre albedrío, la esencia de la humanidad y la equidad. De ahí que solo puede articularse adecuadamente desde el diálogo interdisciplinar entre tecnólogos y humanistas, lo cual exige trascender los idiolectos y el mutuo reconocimiento del estatuto epistemológico.

 

Para ver más artículos de fondo publicados en esta web

 

About the author

Francesc Torralba
Catedrático acreditado en la Universitat Ramon Llull at Universitat Ramon Llull | Website | + posts

Filósofo y teólogo

2 comentarios

  1. Excelente. Gracias por esta publicación.

    Me gustaría que se hable de lo que no tiene la IA. ¿Abordaje desde una antropología espiritual?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *