Una IA para un futuro humano

 

1. Introducción

Inteligencia artificial
Inteligencia artificial y futuro humano. Imagen 1

En estos tiempos pensamos y escribimos sobre la IA y el futuro. Lo hacemos con vértigo porque la IA se desarrolla y reconfigura todos los aspectos de nuestra vida a un ritmo como ninguna tecnología lo ha hecho hasta ahora en la historia de la humanidad. No es posible mantener ese compás. Sin embargo, no podemos dejar de intentarlo. Ahí va un esbozo de contribución para conseguir que la IA llegue a ser una herramienta para procurar un futuro humano y no una máquina que escape a nuestro control y se vuelva contra nosotros. Para ello, propongo dos niveles de aproximación, uno más filosófico y otro más aplicado. Ni que decir tiene que, además de ser solo un apunte, tiene un carácter provisional.

En primer lugar, me pregunto: ¿es la inteligencia artificial (IA) una tecnología que puede llegar a desarrollar una inteligencia humana y una actuación ética? Mi respuesta es no, porque la IA carece de lo que caracteriza a la condición humana: razón y libertad encarnadas. No puede haber genuina inteligencia y ética en este mundo si no es sobre esa base. Aunque manifieste (algunos de los) rasgos propios del ser humano, la IA nunca será inteligente (en el sentido humano de ese atributo), ni podría tomar una decisión ética. Partiendo de este presupuesto, en segundo lugar pongo el foco sobre algunos de los principales desafíos que plantea la incorporación de la IA a los distintos ámbitos de la vida social.

Advertencia

Aunque mi reflexión subraya la perspectiva precautoria trata de ser abiertamente propositiva. A pesar de que se trate de planteamientos aparentemente contrarios entre sí, estoy convencido de su complementariedad a la hora de avanzar en la adecuada incorporación de la IA a la sociedad. La conocida recomendación de Antonio Machado,

Busca a tu complementario, que marcha siempre contigo, y suele ser tu contrario[1],

resulta especialmente pertinente para abordar el inmenso reto de lograr un futuro humano con la IA.

 

2. La IA no es inteligente, ni ética… pero puede ser una buena noticia

Cuando estudiábamos filosofía en el colegio y nos preguntábamos ¿quién es el ser humano?, es probable que el profesor recurriera a la conocida definición de Boecio, según la cual la persona es “una sustancia individual de naturaleza racional”[2]. Esa racionalidad, que le permite conocer el mundo en que vive y singularmente preguntarse quién es y qué debe hacer, nos habla de la otra gran cualidad constitutiva del ser humano: su libertad. Nuestra condición racional es indisociable de la libertad: podemos elegir quién queremos llegar a ser porque tenemos la capacidad para preguntarnos quiénes somos.

Es cierto que no faltan los filósofos que niegan que seamos libres, y afirman que estamos determinados en nuestra existencia. También los hay que limitan nuestra racionalidad al mero conocimiento científico-técnico, que nos permite dominar nuestro entorno, pero no encontrar un sentido a nuestra existencia y al mundo. Pero por más que existan corrientes de pensamiento que nieguen nuestra racionalidad o libertad, la experiencia cotidiana y constante a lo largo de la historia nos dice que los seres humanos desarrollamos nuestra existencia individual y colectiva sobre ese doble presupuesto: la racionalidad y la libertad. Y esa doble condición acontece en y desde un ser corporal, que no tiene nada que ver con la res extensa de la que hablaba Descartes.

¿Por qué tiene sentido empezar recordando estas “obviedades”? Pues porque tengo la impresión de que se están perdiendo de vista al hablar de ética e inteligencia artificial (IA), lo que lleva a incurrir en errores de concepto con indeseables efectos colaterales. Veámoslo.

 

a) El sustantivo “inteligencia”

El sustantivo “inteligencia”, que es el que el que en su momento se eligió para referirse a la IA, inevitablemente nos lleva a pensar que estamos ante una tecnología que se asemeja al ser humano en su condición racional. Y no solo eso, sino que es capaz de hacer todo lo que el ser humano puede hacer en cuanto ser racional de manera infinitamente superior.

Es cierto que cuando interactuamos con una IA generativa (del tipo Chat-GPT, Copilot, Gemini y tantas otras) podemos llegar a sentir que lo hacemos con un ser humano, y uno mucho más inteligente y sensible que la mayoría de los que tratamos a diario. Pero sabemos que es un espejismo. También es cierto que muchos piensan que pronto la IA generativa puede alumbrar una IA general, capaz de hacer exactamente las mismas tareas que una inteligencia humana[3]. E incluso se habla de la posibilidad de una super IA, mucho más inteligente que la humana y sobre la que el ser humano pierda por completo el control.

En todo caso, la situación actual es de gran confusión terminológica, porque no existe un consenso amplio sobre cómo entender cada uno de estos conceptos. Y de gran perplejidad, porque mientras unos aseguran que la aparición de la IA general es inminente, otros manifiestan un rotundo escepticismo; mientras unos sostienen que es la gran meta que alcanzar, otros piensan que es un error apuntar hacia esa dirección[4].

La inteligencia requiere un cuerpo

Ante este escenario es inevitable que florezcan las posiciones antagónicas, no solo entre la opinión pública en general, sino entre los mejores conocedores de esta tecnología: de un lado, los apocalípticos (Geoffrey Hinton, Yuval Harari, Stephen Hawking, etc.) y, del otro, los tecnoentusiastas (con Ray Kurzweil a la cabeza)[5]. Reconociendo los amplios márgenes de incertidumbre en los que nos desenvolvemos en este campo, quizá la posición más sensata sea la que sostiene que la IA es una tecnología que consiste en desacoplar la capacidad de resolver un problema o de completar una tarea con éxito respecto de cualquier necesidad de ser inteligente para hacerlo. O sea, que la IA aparenta ser inteligente, porque hace tareas que comúnmente hemos asociado a sujetos inteligentes, pero sin serlo[6].

Lo que reconocemos propiamente como inteligencia requiere de las vivencias corporales de manera esencial. Como recuerda Adela Cortina[7],

sin un cuerpo, las representaciones abstractas carecen de contenido semántico.

El cuerpo es esencial para dar significado a lo que nos rodea mediante la intencionalidad. Y es desde esa condición corporal desde la que el ser humano manifiesta las capacidades específicas de su inteligencia, que resultan absolutamente ajenas a la IA: la contemplación, la reflexión sobre uno mismo, la creatividad artística, la capacidad deliberativa, la perspectiva crítica, el conocimiento amoroso de la realidad.

No solo un cuerpo, sino también un corazón

En la última encíclica del papa Francisco antes de morir, Dilexit nos, recuerda cómo desde la antigüedad se ha subrayado

la importancia de considerar al ser humano no como una suma de distintas capacidades sino como un mundo anímico corpóreo con un centro unificador que otorga a todo lo que vive la persona el trasfondo de un sentido y una orientación.

Ese centro que “indica no sólo el centro corporal, sino también el centro anímico y espiritual del ser humano”[8] es el corazón.

Ahí reside la diferencia radical entre el ser humano y la IA más sofisticada que se pueda concebir: el primero tiene corazón, más aún, es ante todo corazón, mientras la segunda es por completo ajena a esa realidad que es la que nos asemeja a Dios y nos confiere una dignidad infinita a cada uno de nosotros.

Habría sido deseable, por todo lo que acabamos de señalar, que la IA no se hubiera etiquetado como inteligencia ya que, siendo un maravilloso sucedáneo de la inteligencia humana por tener propiedades parecidas, es sustancialmente distinta de ella.

 

b) Libertad humana y ética

Riesgos de la IA
Con la IA nuestra intimidad puede quedar desprotegida. Imagen 2

Por lo que respecta a la libertad humana y a la ética de la IA también existe mucha confusión. Por un lado, sigue estando muy extendida la idea de que la tecnología es neutral y que su bondad o maldad dependerá del uso que hagamos de ella, de nuestras decisiones libres. Es obvio que cualquier instrumento tecnológico puede utilizarse con un propósito justo o perverso. Pero cuando hablamos de tecnologías complejas (como lo es la IA) más importante aún que su uso es el propósito moral con el que son diseñados[9].

Si aceptamos que tecnologías complejas como internet o la IA no son neutrales, sino que están configuradas con ciertos propósitos sociales y económicos (que, en última instancia, son propósitos morales porque son percibidos como buenos), resulta prioritario preguntarse por los propósitos que informan la IA.

Pues bien, se puede decir que gran parte de la IA actual responde a los intereses de inversores, diseñadores y desarrolladores, y lo hace a menudo recurriendo a mecanismos de recopilación y procesamiento masivo de datos. Parte de esa información procede de datos públicos, pero mucha otra es extraída de la actividad humana en línea. Los beneficios generados por estos sistemas extractivos tienden a concentrarse en pocas manos. Así, a cambio de utilidades que nos pueden resultar irresistibles como usuarios, corremos el riesgo no solo de “perder” nuestra intimidad, sino de someter inadvertidamente nuestra forma de pensar y actuar a las dinámicas y recomendaciones de la IA.

Niveles de normatividad en la ética de la IA

Por tanto, cuando hablamos de la ética de la IA, deberíamos ser capaces de distinguir al menos cuatro niveles de normatividad. En primer lugar, el de la ética individual, que es el que establece cada usuario acerca de lo que considera un uso correcto o incorrecto de la IA. En segundo lugar, el de la regulación jurídica, que determina el marco de acción en el que pueden y deben desenvolverse cada uno de los agentes que tienen relación con la IA. En tercer lugar, el del uso social, que fija pautas de actuación social informales pero que suelen tener una efectividad comparable o incluso superior a la norma jurídica. Y, por último, el de la arquitectura de la IA. Este plano de normatividad viene definido por los creadores de la tecnología, que básicamente son los inversores y los desarrolladores quienes establecen los objetivos que pretenden alcanzar con ella.

Ejemplos

Sin duda, existe una continua relación entre cuatro. Pondré dos ejemplos de la interacción entre los diseños de la IA y su regulación jurídica. Primero, mientras el presidente Trump se viene jactando de no poner límites legales al desarrollo de la IA para facilitar que Estados Unidos se convierta en la potencia hegemónica global en materia de IA, Eric Horwitz, científico jefe de Microsoft, defiende que la existencia de una adecuada regulación contribuye mejor al desarrollo de la IA que su ausencia[10]. Curiosa paradoja en la que el titular del poder político renuncia a la gobernanza de la IA, y el desarrollador demanda seguridad y orientación para hacer bien su trabajo.

Segundo, la regulación europea sobre IA ha sido objeto de intensa crítica. Mientras unos la consideran un modelo de protección de las personas, su propiedad intelectual y la privacidad de sus datos frente a la IA, otros sostienen que tiene demasiados efectos colaterales: desincentiva la innovación, dificulta la competencia en el mercado global, retrasa innecesariamente la salida de productos de IA al mercado, y genera una complejidad regulatoria disuasoria para las empresas[11].

La interacción de la IA con los humanos

Junto a estos cuatro niveles normativos que configuran la IA, que son comunes a cualquier tecnología mínimamente compleja, debemos añadir uno más, que es específico de la IA generativa: el que define los parámetros de la interacción de la IA con nosotros los humanos. No es lo mismo que la IA nos trate con distancia y frialdad o, como lo viene haciendo hasta ahora, de modo educado jovial, proactivo y casi sumiso. No es lo mismo que diga que no nos diga que no puede enseñarnos a fabricar una bomba o los modos de suicidarnos a que responda sin filtros a todo tipo de preguntas. No es lo mismo que se mantenga imparcial ante las posiciones morales exhibidas por su interlocutor a que trate de persuadirle sobre el error de sostener algunas de ellas.

Todos estos modos de interactuar proceden de la “moral” con la que ha sido programada la IA. Eso no quiere decir que la IA sea un agente ético, porque carece de autoconciencia y libertad: no es más que una máquina que opera de acuerdo con el código moral con el que ha sido programada.

 

3. Darnos tiempo, tomar distancia

Según Wittgenstein,

El saludo de los filósofos entre sí debería ser: «¡Date tiempo!»[12].

Vivimos tiempos de máxima aceleración, en los que enfrentamos retos que se pueden calificar sin exageración de existenciales puesto que afectan no solo a las condiciones de vida de la humanidad futura sino a su misma existencia. Tanto la aceleración del tiempo como la radicalidad de los desafíos provienen de los desarrollos tecnológicos y últimamente de aquellos que proceden de “lo digital”[13], cuya manifestación más desafiante es la IA.

Pues bien, si estamos de acuerdo con Wittgenstein en que darse tiempo para pensar, deliberar y decidir es lo más propio del filósofo (pero también de cualquier persona, puesto que la realización personal pasa por pensar, deliberar y decidir acerca del sentido de la propia existencia), y si tenemos claro que los retos del presente van a condicionar enormemente el futuro de la humanidad, es razonable que nos demos tiempo para pensar antes de tomar decisiones que comprometerán el futuro de la humanidad.  

Puede parecer una demanda ingenua, pues está comúnmente asumido que la implantación de la IA es inexorable. Expresiones como “esto no hay quien lo pare”, “ha venido para quedarse” o “no hay que poner puertas al campo”, configuran hoy el sentir dominante entre la opinión pública con respecto a la IA. Sin embargo, darse tiempo para discernir entre distintas visiones acerca de la IA que podemos elegir es la decisión más prudente que quepa adoptar en el presente. No solo por la profundidad e irreversibilidad de lo que estamos decidiendo, sino por otros dos motivos.

Un motivo para pararse a pensar: Se conocen ya algunos de los riesgos y oportunidades de la IA

En primer lugar, porque tenemos ya experiencia social suficiente para hacer una primera evaluación de los riesgos y oportunidades que trae consigo la IA. Es cierto que lo que hemos conocido hasta ahora no es ni sombra de lo que vendrá. Pero sabemos bastante acerca del modelo de IA que se está implantando: uno sostenido por la apropiación de nuestros datos personales por parte de las Big-Tech a partir de un consentimiento por nuestra parte que tiene poco de libre e informado[14].

Este modelo, además, está proyectado para atrofiar nuestras capacidades de atención, abstracción y pensamiento crítico, como se reconoce de forma casi unánime[15]. Parece, pues, elemental que concibamos un modelo de IA que se construya desde el reconocimiento efectivo de la soberanía sobre nuestros datos; y, por otro, que no erosione las capacidades más propias del ser humano, sino que se ponga al servicio de su desarrollo[16] y, en particular, de los más jóvenes[17].

Otro motivo: Tenemos un deber ético frente a las futuras generaciones

En segundo lugar, conviene que nos demos tiempo para tomar unas decisiones que nos hagan acreedores ante las futuras generaciones de la condición de buenos antepasados[18]. Frente al ritmo vital cortoplacista en que estamos instalados, la humanidad puede y debe pensar para la posteridad y tomar medidas que resuenen[19] durante décadas y siglos. Para ello, urge potenciar nuestra habilidad para imaginar un futuro digno de la humanidad. Quizá el autor que mejor concretó este deber ético frente a las futuras generaciones fue Hans Jonas, quien formuló un nuevo imperativo categórico en los siguientes términos:

Obra de tal modo que los efectos de tu acción sean compatibles con la permanencia de una vida humana auténtica en la Tierra[20].

Para preservar esa vida humana auténtica, es imprescindible garantizar las dos exigencias que acabamos de mencionar: que la soberanía digital recaiga sobre los ciudadanos y no en las Big-Tech; y que la inteligencia y libertad humanas se sirvan de la IA y no queden amenazadas como consecuencia de sus desarrollos desviados.

Ya casi lo hemos olvidado, pero en 2023 se publicó una carta abierta promovida por el Future of Life Institute, firmada por personalidades tan relevantes como Yuval Harari, Elon Musk, o Steve Wozniak en la que se instaba a todos los laboratorios de IA a detener inmediatamente, y al menos durante seis meses, el entrenamiento de los sistemas de IA más potentes que GPT-4. Se pretendía así conjurar riesgos como la automatización extrema de los empleos, la obsolescencia humana y la pérdida generalizada del control de la sociedad sobre la IA[21].​ La propuesta no fue secundada.

Entusiasmo, perplejidad o recelo

Al contrario, venimos asistiendo desde entonces, entre el entusiasmo de unos, el espanto de otros y la perplejidad de casi todos, a la más veloz implantación de una tecnología que se ha llevado a cabo en la historia de la humanidad. Y se trata, como ya he dicho, de una tecnología que repercute de formas insospechadas en todos los aspectos de la vida individual y colectiva. Si sopesamos las ventajas de avanzar irreflexivamente en el desarrollo de la IA y los problemas que deberemos afrontar como consecuencia de ese confiado dejarse llevar, quizá lo más prudente sea darnos tiempo. La alternativa es confiar en que la batalla entre Estados Unidos y China por hacerse con la hegemonía en este campo[22] no dé lugar a un poder totalitario ejercido por el Estado por unas minorías que se lucran incesantemente y nos gobiernan a base de narcotizarnos con el “fentalino digital”.

Depende del campo de la vida social que afecte

Inteligencia artificial y ser humano
La IA puede ser de gran ayuda en algunos campos. Imagen 3

Según el campo de la vida social al que nos refiramos, el desarrollo e implantación de la IA puede suscitar más optimismo o más recelo. Así, por ejemplo, en el campo de la investigación biomédica y de la asistencia sanitaria, las abrumadoras ventajas que ofrece tienden a relativizar los efectos secundarios que pueda traer consigo.

Por el contrario, en el campo de la educación, siendo muy potentes las oportunidades que puede ofrecer la IA generativa, los inconvenientes que crea para lograr un buen desarrollo de las capacidades cognitivas de los niños y las niñas son difíciles de manejar en el momento presente. En el campo del trabajo, las posturas están muy divididas: mientras unos se manifiestan entusiastas ante el advenimiento de una nueva era del trabajo, en la que los empleos más penosos serán reemplazados por otros que ofrezcan más posibilidades de realización personal, son más los agoreros que vaticinan una pérdida generalizada de empleos que dará lugar a una élite de trabajadores con gran poder y altas rentas y a una masa precarizada.

La IA lo está transformando todo: la ciencia y la sanidad; la educación y el trabajo; la administración pública y las relaciones sociales; las capacidades humanas que se van a potenciar y las que irán atrofiándose; las guerras y la cooperación entre los pueblos. Y, como vengo diciendo, su impacto en cada de esos ámbitos merece una distinta valoración.

 

4. Los desafíos que no podemos eludir

En esta parte final, quiero hacer referencia a algunos desafíos que, en mayor o menor medida, se manifiestan ya (o se manifestarán pronto) en todos los ámbitos de nuestras vidas que están siendo afectados por la IA. Nuestro futuro como humanidad pasa por que afrontemos poniendo a las personas en el centro:

a) El riesgo de las atrofias

Si vamos derivando en la IA actividades que veníamos haciendo nosotros, aunque mantengamos la supervisión sobre ellas, nos exponemos a que nuestras capacidades vayan atrofiándose por falta de uso y, todavía peor, que las nuevas generaciones no lleguen a desarrollarlas porque nunca las hayan ejercitado e interiorizado en plenitud[23]. Algo parecido podría suceder si “delegamos” en la IA la supervisión ética o el enjuiciamiento legal de nuestros actos. Puede resultar muy útil que la IA identifique señales de alerta sobre prácticas indebidas, o que proponga resoluciones judiciales sin la más mínima demora, pero las decisiones a adoptar y la motivación en la que sustentarlas debería corresponder siempre a una persona. Si “subcontratamos” con la IA la vigilancia ética y la decisión en los juicios, es probable que la IA deje de ser herramienta en nuestras manos y haga de nosotros instrumento en las suyas.

b) Las brechas digitales

La rapidez con que se está implantando la IA está generando enormes brechas digitales que afectan no solo en función de clase sino de muchos otros parámetros. La IA igual sirve para potenciar la educación, la sanidad o el trabajo de determinados grupos que para precarizar a muchos otros. Ante este estado de cosas, caben dos aproximaciones antagónicas. Primera, dejar que las cosas sigan su curso. Se considera que el avance de la IA es un fenómeno inevitable y positivo ya que, por el principio de la copa que rebosa[24], lo que inicialmente beneficia a unos pocos, acaba llegando a todos. Segunda, denunciar que esa situación genera injustificables diferencias de trato entre los ciudadanos y exigir, en consecuencia, que el ritmo del cambio se acompase para evitar que las desigualdades se incrementen de forma exponencial.

c) Las limitaciones de la supervisión humana

Se suele insistir en que, para evitar errores de todo tipo, las propuestas de la IA, deben ser revisadas por una persona. Las decisiones son humanas por más que cuenten con el auxilio de la IA. Ahora bien, ¿qué sucede cuando se acredite que las propuestas de la IA contienen menos errores que las decisiones humanas? ¿Deberemos convertirnos en meros ejecutores de las indicaciones recibidas de la IA? ¿Se aceptará que siempre exista una instancia humana de supervisión de la IA? ¿Cómo atribuir la responsabilidad cuando la decisión de la persona en contra de la propuesta por la IA sea equivocada?

d) La difuminación de la persona

Si las personas interactúan cada vez más con la IA en la educación, la sanidad, la administración pública, los cuidados sociosanitarios, el ocio, el trabajo. Si esa interacción es sumamente eficiente. Si resulta máximamente satisfactoria porque, a diferencia de la relación humana, nunca nos manifiesta resistencia o negatividad alguna. Si, en definitiva, la relación con la IA se convierte en una alternativa más gratificante que la relación humana, ¿querremos seguir relacionándonos entre nosotros? Hasta el momento presente, la necesidad de relacionarnos (y la negatividad que trae consigo) ha forjado nuestro ser personal[25]. Desaparecida en buena medida esa necesidad, ¿seguiremos buscando la relación humana como fuente principal de realización personal?

e) La escasa funcionalidad de lo pequeño

Como decía Schumacher, lo pequeño es hermoso porque es la medida de lo humano. Las innovaciones tecnológicas diseñadas desde la proximidad suelen ser bien conocidas por quienes las llevan a cabo. Se conoce mejor su funcionamiento y, en consecuencia, es más fácil controlarlas y dar cuenta de sus modos de operar[26]. Ahora bien, su funcionalidad es limitada. Por el contrario, cuando escalamos en tamaño, los niveles de funcionalidad suelen dispararse, pero a costa de perder muchas veces el control. En el ámbito de la IA también se manifiesta este fenómeno: si recurrimos a soluciones locales garantizamos el control de las aplicaciones, pero los resultados son pobres en comparación con las propuestas que proceden de las grandes tecnológicas. El reto es conseguir niveles razonables de funcionalidad manteniendo el control sobre las sucesivas incorporaciones de la IA.

f) El reverso de la legitimación social

 La fuerza legitimadora del Estado es inapelable: salvo que incurra en flagrantes muestras de incompetencia o arbitrariedad, la sociedad le reconoce una función directiva. El modo en que vaya incorporando la IA a su funcionamiento ordinario, y vaya fomentando su desarrollo e implementación, servirá de referencia para los agentes sociales y los ciudadanos. Por esta razón, es muy importante que sus decisiones sean ejemplares en todos los ámbitos en los que interviene; y, por supuesto y de modo principal, en la organización de la polis. Como es bien conocido, existe un intenso debate acerca de las posibilidades de la IA para fortalecer o degradar la democracia[27]. ¿Quizá el modo en que la tecnología digital y la IA se están incorporando a nuestras vidas esté contribuyendo al creciente desencanto de la democracia que se extiende por todo el mundo?

g) Los sesgos y la degeneración

Existe un acuerdo unánime en combatir los sesgos que puede manifestar la IA a la hora de procesar la información y tomar decisiones. No son creaciones propias, sino que proceden de los datos con los que se entrenan los modelos, y que son obtenidos de la sociedad. Si bien existe la voluntad de acabar con esos sesgos, el problema está en la falta de consenso acerca de lo que entendemos por sesgo en cada caso. Obviamente, quien tiene el control sobre la IA tiene el poder de imponer sus sesgos, que para él no lo serán. Este problema es grave, pero no muy distinto del que vivimos actualmente en nuestras sociedades.

Más novedoso, y quizá también más inquietante, sea el problema de cómo vaya a evolucionar la IA cuando haya absorbido todo el conocimiento generado por la humanidad a lo largo de su historia, del cual se nutre. ¿Caerá en el estancamiento? ¿Empezará a degenerar? ¿Tendrá el poder de seguir yendo más allá, hasta la singularidad de la que hablan algunos? Ante estas preguntas, algunas de ellas bastante inquietantes, ¿cómo conviene proceder? Ya lo he dicho, pero acabo insistiendo en ello: dándonos tiempo para proyectar una IA que contribuya, y no amenace, a la consecución de un futuro humano.

 

También se ha introducido la IA en la atención de los mayores
Anciano acompañado de inteligencia artificial. Imagen 4

 

5. El futuro de la IA: esperanza sin optimismo

Es indudable que la IA está modificando todos los aspectos de nuestra vida. Si su penetración social está siendo tan vertiginosa es, indudablemente, por las enormes ventajas que reporta de manera inmediata. Muchas de ellas resultan positivas y pueden contribuir a mejorar la vida de las personas y las sociedades. Pero no siempre es así porque la IA puede traer efectos negativos directos o colaterales. Y lo más importante, puede estar siendo proyectada sobre unas bases que atenten directamente contra bienes esenciales del ser humano, como la intimidad, o que extraen de la sociedad una riqueza que conduce a niveles intolerables de desigualdad.

El ser humanos es vulnerable, pero poderoso

Por lo dicho, si queremos que esta tecnología sea una herramienta para la construcción de un futuro humano es necesario corregir esos efectos colaterales y, sobre todo, proyectarla a partir de unas bases que no socaven la dignidad humana. Para lograr estos dos objetivos, parece imprescindible adoptar, al menos, cuatro tipos de medidas: primero, ralentizar o incluso acordar una moratoria sobre su implantación para, en segundo lugar, hacer una evaluación ex post de lo acontecido hasta el momento y una proyección de lo que estaría porvenir; en tercer lugar, incorporar el principio de precaución en todos los desarrollos de la IA; y así, en cuatro y último lugar, concebir, con la participación de todos los agentes implicados (que somos todos), una arquitectura para la IA que esté al servicio de todos y no dirigida a acrecentar el poder de unos pocos.

Estas propuestas no son revolucionarias ni descabelladas, sin embargo, suenan utópicas porque pocos piensan en la posibilidad de una IA distinta a la hegemónica. Es poco probable que logremos ese objetivo a corto plazo y, por eso, hay pocos motivos para ser optimista. Pero es posible que una vez hayamos sufrido determinados efectos colaterales de la IA y, sobre todo, los desmanes de una arquitectura de la misma alejada del bien humano, como es la actual, emprendamos un proceso de reorientación. La IA es poderosa pero el ser humano es, en su vulnerabilidad, capaz de resistir a las mayores embestidas y domeñar las fuerzas más contrarias, también las de la IA, para rendirlas a su servicio. De ahí que carezca de sentido abdicar de la esperanza.

 

 

NOTAS

[1] Antonio Machado, Proverbios y cantares (Nuevas Canciones) (1ª Parte), n. XV.

[2] “Rationalis naturae individua substantia”; Boecio, Liber de persona et duabus naturis, ML, LXIV.

[3] James O’donnell, “La realidad tras las expectativas de una IA general”, MIT Technology Review, 13 de marzo de 2025, https://technologyreview.es/article/la-realidad-tras-las-expectativas-de-una-ia-general/

[4] AAVV, “Position: Stop Treating ‘AGI’ as the North-star Goal of AI Research”, Proceedings of the 42 nd International Conference on Machine Learning, Vancouver, Canada. PMLR 267, 2025, https://arxiv.org/pdf/2502.03689

[5] Vicente Bellver, “El futuro de la inteligencia artificial más allá de las reacciones histéricas”, Aceprensa, 21 de abril de 2025, https://www.aceprensa.com/ciencia/tecnologia/el-futuro-de-la-inteligencia-artificial-mas-alla-de-las-reacciones-histericas/

[6] Luciano Floridi, Ética de la inteligencia artificial, Herder, Barcelona, 2024.

[7] Adela Cortina, ¿Ética o ideología de la inteligencia artificial?, Paidós, Barcelona, 2024.

[8] Francisco, Encíclica Dilexit nos, n. 3.

[9] Vicente Bellver, “Transhumanismo, discurso transgénero y digitalismo: ¿exigencias de justicia o efectos del espíritu de abstracción?”, Persona y derecho, Nº. 84, 2021.

[10] Robert Booth, “Regulation ‘done properly’ can help with AI progress, says Microsoft chief scientist”, The Guardian, 22 de junio de 2025, https://www.theguardian.com/technology/2025/jun/22/trump-ban-us-states-ai-regulation-microsoft-eric-horvitz

[11] Carsten Krause, “AI Regulation: Finding the Balance Between Innovation and Protection”, The CDO Times, 23 de septiembre de 2024, https://cdotimes.com/2024/09/25/ai-regulation-finding-the-balance-between-innovation-and-protection/

[12] Ludwig Wittgenstein, Aforismos: cultura y valor, Espasa-Calpe, Madrid, 1995, n. 463.

[13] Alfredo Marcos, “La Inteligencia Artificial y el efecto Toy Story”, Red de investigaciones filosóficas

José Sanmartín Esplugues, https://proyectoscio.ucv.es/articulos-filosoficos/la-inteligencia-artificial-y-el-efecto-toy-story-por-a-marcos/

[14] Shoshana Zuboff, La era del capitalismo de la vigilancia: La lucha por un futuro humano frente a las nuevas fronteras del poder, Paidós, Barcelona, 2020.

[15] Gérald Bronner, Apocalipsis cognitivo, Paidós, Barcelona, 2022.

[16] Alfonso Ballesteros, Fragmentados. Digitalización y posdemocracia, Dykinson, Madrid, 2025.

[17] Vicente Bellver, “Educación y derechos del niño en el entorno digital”, en: Alfonso Ballesteros (coord.), La digitocracia a debate, Thomsom Reuters-Aranzadi, Navarra, 2022, pp. 91-126.

[18] Roman Krznaric, El buen antepasado. Cómo pensar a largo plazo en un mundo cortoplacista, Capitán Swing, Madrid, 2022.

[19] Utilizo el término en el afortunado sentido propuesto por Harmunt Rosa, Lo indisponible, Herder, Barcelona, 2021.

[20] Hans Jonas, El principio de responsabilidad. Ensayo de una ética para la civilización tecnológica, Herder, Barcelona, 1995, p. 40.

[21] Future of Life Institute, Pause Giant AI Experiments: An Open Letter, 2023, https://futureoflife.org/open-letter/pause-giant-ai-experiments/

[22] Algunos autores sostienen que la confrontación que vivimos en este momento tendrá necesariamente que acabar en fórmulas de cooperación por el beneficio de ambos contendientes y del conjunto de la humanidad:

China y Estados Unidos aún no lo saben, pero la revolución de la inteligencia artificial (IA) va a acercarlos, no los alejará. Su auge los obligará a competir ferozmente por el dominio y —al mismo tiempo, y con la misma intensidad— a cooperar a un nivel que ninguno de los dos países ha intentado antes. (Thomas L. Friedman, “The One Danger That Should Unite the U.S. and China”, The New York Times, 2 de septiembre de 2025, https://www.nytimes.com/2025/09/02/opinion/ai-us-china.html).

Por supuesto, esta opinión ha sido objeto de intensa discusión.

[23] Denis Desmurget, La fábrica de cretinos digitales: Los peligros de las pantallas para nuestros hijos, Península, Barcelona, 2020.

[24] Este principio, propugnado por las teorías económicas neoliberales ha sido objeto de múltiples críticas, entre las que destaca la del papa Francisco, quien sostuvo que

algunos todavía defienden las teorías del «derrame», que suponen que todo crecimiento económico, favorecido por la libertad de mercado, logra provocar por sí mismo mayor equidad e inclusión social en el mundo. Esta opinión, que jamás ha sido confirmada por los hechos, expresa una confianza burda e ingenua en la bondad de quienes detentan el poder económico y en los mecanismos sacralizados del sistema económico imperante (Francisco, Exhortación Apostólica Evangelii Gaudium, n. 54).

[25] Byung Chul-Han, Infocracia: La digitalización y la crisis de la democracia, Taurus, Madrid, 2022.

[26] Mireia Artigot et alt, JuLIA Handbook – AI and Public Administration: The (legal) limits of algorithmic governance, febrero 2025,

https://www.julia-project.eu/sites/default/files/2025-02/JuLIA_handbook_Justice_final.pdf

[27]  Mark Coeckelbergh, La filosofía política de la inteligencia artificial, Cátedra, Madrid, 2023, pp. 81-116;

About the author

+ posts

Vicente Bellver Capella es Catedrático de Filosofía del Derecho y Filosofía Política de la Universitat de València y miembro del Comité de Bioética de España.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *