Las fronteras infranqueables entre humanos e ia:

sensibilidad moral, responsabilidad, sentido

 

Fronteras entre la ia y el ser humano
Inteligencia artificial. Imagen 1

 

 

 

El futuro es incierto, pero esta incertidumbre está en el corazón mismo de la creatividad humana (Ilya Prigogine)

 

 

 

 

 

 

 

 

Tema de esta reflexión: las fronteras últimas entre humanos e IA

En este lugar, nos proponemos explorar, gracias a la reflexión filosófica, algunas de las fronteras que todavía parecen separar a los sujetos humanos de los entes artificiales de la IA. A este fin, partimos de aproximaciones a este campo desarrolladas desde un enfoque humanista, como las planteadas ya desde hace un tiempo por la propia Unión Europea en diversos documentos especializados (el libro blanco sobre la IA de 2020, el reglamento de IA de 2024, etc.).

Afrontar desde el humanismo el reto de la IA exige, ante todo, comprender el alcance más hondo de cada una de estas realidades en su diversidad o diferencia y sus relaciones mutuas. Pero, para discernirlo, nada más necesario que explorar sus límites o fronteras recíprocas. Ahora bien, frente a otros análisis, que se centran en rastrear las semejanzas y similitudes detectables a este respecto, este trabajo profundiza de un modo original en el intento de discernir cuáles pueden ser, hoy y en el futuro, los límites que distancien o separen estas dos clases de realidades. Ello se acomete bajo la inspiración y con el propósito de contribuir en su modesta medida al desarrollo del ya mencionado humanismo digital y de lo tecnológico (Fernández Fernández, 2021[1]; Camacho y  Villas 2022)[2].

Con objeto de alcanzar la meta expuesta, nuestra reflexión analiza dimensiones humanas concretas, tales como la sensibilidad y la responsabilidad éticas, la unicidad u originalidad personales, y lo semántico profundo de nuestro lenguaje en cuanto al sentido. Termina indagando en el olvidado asunto de los presupuestos o a priori hermenéuticos y metafísicos, implícitos en el funcionamiento de los entes de la IA, e incluso en la apertura hacia la transcendencia.

 

Sensibilidad ética: una distinción clave entre los entes artificiales y los humanos

Un campo que proponemos, aquí, como clave diferencial o de frontera para el análisis y la actuación futura, en el terreno de la distinción entre artefactos (en especial los de la IA) y personas, se hallan en la sensibilidad ética, comprendida en un alcance profundo y “personificador”. Esto, dado que entendemos esta vivencia como capital en lo antropológico y con una extrema significación a la hora de identificar lo más hondo y propio del ser humano. Por ello, constituye un terreno crucial a la hora de cuidar todo lazo humano con lo real.

Ayuda o colaboración de la tecnología, nunca suplantar o abolir lo humano

En general, la IA y la tecnología han de acertar, pensamos, a promover nuestra sensibilidad moral más básica, la ética, mas no a suplantarla. ¿Por qué? Pues porque con ello nos suplantarían de alguna forma a nosotros mismos, ya que este rasgo pertenece al núcleo de lo que nos constituye precisamente como humanos. De aquí, en sentido inverso, el que estos asuntos, bien enfocados, puedan desempeñar un fructífero campo con vistas a la relación entre la IA y el ser humano, tanto individual como comunitariamente. Sin embargo, como se ha señalado, hay que descifrarlos y ubicarlos con un exquisito cuidado, y en un sentido siempre “humanizador” o rehumanizador, en tanto han de cooperar a la realización y el desarrollo humanos en su alcance más integrador.

La IA y la tecnología en general, a pesar de su utilidad y capacidad, nunca extinguirán por sí solas nuestra sensibilidad humana en su alcance moral. De hecho, no pueden hacerlo. Tanto ellas como las máquinas que aprenden, o que son entrenadas mediante su inter-acción, no deben amenguarla, acotarla en ningún extremo. Mucho menos cabe admitir aún que colaboren a abolirla, a prescindir de su concurso, a substituirla o reemplazarla.

Atiéndase en esto a que las experiencias de “sensibilidad ética” (de escucha interior de esa honda apelación o llamada despertada por el rostro desnudo y menesteroso del prójimo, según el modo levinasiano de comprenderla), de “conmoción” o compasión, de fraternidad y humanidad hacia el otro y hacia sí mismo, siempre implican nuestra humana subjetividad. Esto, tal como enseñó Gadamer respecto de la sensibilidad estética- comporta siempre un encuentro, una relación “no indiferente”. En ello, el sujeto vive el valor singular de la interpelación humana, dotada de una significación personal e intransferible (Gadamer, 2006)[3].

 

Semántica y sentido en el lenguaje humano

Avances y deficiencias del lenguaje de las máquinas

Inteligencia artificial
Robot. Imagen 2

Una breve cala reflexiva puede convenir aquí respecto a la IA en cuanto al lenguaje. Sabido es el increíble progreso a este tenor alcanzado por tales artefactos que inter-actúan con nosotros ya mediante lenguaje verbal natural. Por ejemplo, pensemos en sistemas como el  “chatGPT” u otras redes dotadas de IA en el ámbito del lenguaje (Molina, 2023)[4].  La lingüística computacional avanza imparable.

Ahora bien, aunque los mencionados entes pueden ya elaborar textos y discursos en cierto grado autónomos, de gran complejidad, por y para nosotros, dotados de una apariencia original o creativa, no olvidemos que la creatividad lingüística humana no se limita a combinar con significado palabras o unidades verbales. Existe siempre en lo humano una “resonancia semántica” honda o última del lenguaje, no solo funcional o de corrección normativa sintáctica y de significado primero.

Con esto conectan determinadas deficiencias o fragilidades de estos sistemas, vinculadas a la fiabilidad y falibilidad de sus fuentes o a la imprescindible tarea de verificación y de contraste crítico por terceros. Así mismo, traen a la atención vulnerabilidades tales como los problemas de coherencia general de sus discursos –no ya solo la consistencia  interna, sino su armonía con el mundo en su conjunto-, sus carencias en orden al humano “sentido común” -que pueden desconcertar, cuando no provocar hilaridad o confusión-, la ausencia de congruencia plena, su incapacidad para la auto-crítica real o el manejo de los diferentes niveles de certidumbre o ambigüedad, la carencia de pensamiento propio y así de argumentación original, etc. (Casacuberta y Guersenzvaig, 2022)[5].

La creatividad humana en el lenguaje

Los humanos, cuando creamos lenguaje verbal, a la vez gestamos significado con sentido para nosotros, significamos o engendramos significado “personal” en medio de lo real. Al comunicarnos, no nos limitamos meramente a “construir” mensajes, en fragmentos integrables de lenguaje que refieren correctamente o que señalan con eficacia lo denotado. Nuestras palabras tienen referencia y significado –como denuncia desde su génesis el estudio de la lógica-; pero, ante todo, connotaciones de “sentido” subjetivas muy profundas.

Las mencionadas connotaciones derivan de los diversos niveles presentes en todo lo real. Dichos niveles articulan y hacen posible una fecunda relación de los sujetos con el mundo y, en especial, con otros sujetos. Por ello, los niveles más hondos o del sentido, expresados por nuestro lenguaje, resultan cruciales en orden a la configuración de encuentros fructíferos o realizadores, por parte de los seres humanos, y nos vinculan así con las causas, valores y razones últimos (López Quintás, 2022)[6]. Para que se entienda: generamos palabras, lenguaje y connotaciones vitales, con un porqué, con un fin intrínseco, ligado a la unidad, para orientarnos de esta manera al cabo axiológicamente a nosotros mismos en lo real y trazar relaciones, fértiles o personalmente cargadas de sentido, con lo existente, hasta tejer verdaderos encuentros.

La palabra humana es expresión del yo

La palabra, de este modo, resuena en nuestro interior, iluminándolo, despierta el sentido, abre a la unidad con lo otro, enciende el amor o el odio, vibra en nuestra alma o espíritu. En suma, se ve impregnada por nuestra inteligencia-emocional y nuestras metas o anhelos internos; pues está al servicio del desarrollo de la identidad personal, en cuanto cauce de encuentro entre el yo y los otros, gracias a su densidad de valor y de sentido.

La palabra humana es inteligencia-afectiva hecha comunicación. Por esto, posee el sello de la persona. Una máquina de IA puede fabricar lenguaje verbal; pero no darle un sentido, llenarlo de la creatividad más profunda. Esta es la que brota de un sujeto irrepetible, en su vincularse con lo real y con otras personas, desde su voluntad, emoción y libertad. Mas, sobre todo, mana en nosotros desde la unidad de un yo original, que se abre hacia lo otro y los otros. Este yo constituye el núcleo desde el que se da el auto-reconocerse como un sujeto genuinamente humano, un alguien y no un algo, que se proyecta a sí mismo hacia algún horizonte de sentido personal, interiorizado y experimentado en la propia vida.

 

La responsabilidad ética como especificidad del sujeto humano frente a la IA

Algo parecido a lo anterior, cabe predicar de nuestras decisiones morales y de nuestros compromisos con los valores éticos. Podemos aspirar al desarrollo progresivo de mejores sistemas de IA, aplicados a la facilitación de la valoración de un caso o situación, en su aspecto económico-social, jurídico, etc. Pero estos sistemas tienen que ser orientados a colaborar con nosotros; no a usurpar nuestro rol final, ni a inutilizar nuestra dimensión moral. Ello, por cuanto nuestro vínculo con los valores éticos enraíza en el fondo mismo que nos convierte en humanos y, al menos, por lo que aquí respecta aspiramos a seguir siendo tales.

La vocación ética de todo sujeto humano le es inseparable y de ella deriva nuestra intrínseca “responsabilidad”. Graciano González (2021) ha hablado incluso de nuestra “responsividad”[7]. Esto, en cuanto aspecto nuclear que nos constituye desde nuestro origen o génesis; una responsividad, así, inseparable de nuestra subjetividad y que nos conforma como seres genuinamente abiertos al encuentro ético y moralizado, cargado de valores, con los otros, de manera inevitable. En suma: identidad y responsabilidad conforman un binomio inescindible en lo humano[8].

Emmanuel Levinas. Imagen 3

Los humanos somos sujetos morales vinculados

Los humanos constituimos “sujetos morales” –no es solo que enfrentemos ni resolvamos un problema o una mera “función moral”-. Seguir siendo quienes somos, desarrollarnos en nuestro ser, implica entonces crecer en cuanto personas llamadas por los rostros de los otros y por las situaciones axiológicas o éticas, propias y ajenas. No podemos, como nos ha enseñado Lévinas (2002), dimitir de este vernos solicitados y comprometidos por la “vulnerabilidad humana”, la fragilidad, la indigencia del prójimo[9].

En efecto, de hecho, en donde menos reemplazables resultamos las personas no es sino justamente en nuestras responsabilidades para con otros. De aquí, el que el pensamiento levinasiano haya denunciado que el sujeto, antes que intencionalidad, es “responsabilidad”. También, Lévinas ha expresado que la misma subjetividad humana consiste precisamente en un no poder substraerse a la responsabilidad, en no tener la interioridad “como escondite”[10]. Nótese que “subjetividad”, término asociado al ser característico de la persona, a su interioridad o adentro peculiar, viene de “sujeto”, y este vocablo de “sub-yectum” (lo puesto o situado bajo algo), voz que indica “sujeto” en cuanto ligado, vinculado, “ob-ligado” por la responsabilidad.

La IA no es un agente moral

En conexión con lo precedente, otros han hecho notar que la IA no puede ser considerada como un “agente moral” desde la óptica o perspectiva concreta del dinamismo o desenvolvimiento del proceso genuino y específico de la responsabilidad ética, y no ya solo por la génesis o raíz personal de dicha responsabilidad[11]. Ello por cuanto el dinamismo o despliegue de la responsabilidad moral del sujeto implica, como punto de partida, la libertad de “auto-determinación”, en el sentido de la capacidad para proponerse unos fines propios voluntariamente (la IA es un instrumento o medio que puede tener ciertos objetivos o funciones, pero que se usa en orden a unos fines determinados por los sujetos).

La IA no realiza propiamente un razonamiento práctico moral

El razonamiento práctico moral no opera como una mera deducción o inducción lógica silogística, que pueda mecanizarse de algún modo haciéndola externa al humano para obtener a partir de unas premisas la conclusión correcta acerca de lo bueno o lo malo éticamente considerados. Ello, por cuanto no asocia medios adecuados a fines únicamente, ni lo hace a partir de pautas externas como la eficacia, sino que integra valores y principios reconocidos y asumidos interiormente por un yo o subjetividad libre, no obedece meras reglas lógicas.

Además, el razonamiento moral, que compromete vitalmente al sujeto, es desarrollado por una razón capaz asimismo de un uso teórico o especulativo que alcanza la posibilidad de formularse hipótesis o conjeturas nuevas y de un modo creativo, y no según el modo de la IA. Aunque todo esto, como es obvio, no comporta el que no quepa perseguir la responsabilidad -ética o jurídica- derivada de un acto u omisión ocasionados por el funcionamiento de una máquina; por ejemplo, con respecto a su programador, si es una IA, o su fabricante, o su comercializador, o su usuario y propietario. Ello, aunque esa responsabilidad no pueda ser “imputada” a la máquina o IA en sí misma.

Ahora bien, a pesar de lo expuesto, cabe advertir que una IA puede actuar acaso “como si” fuera responsable. Incluso podría llegar a manifestarse como tal y hasta aparentar que le conmueve el encuentro con el otro y que responde a ese “dato” con una conducta “altruista” o de atención a las necesidades ajenas –responder y responsabilidad son términos conectados-.

Nunca la ia se siente interpelada personalmente

Sin embargo, no perdamos de vista que la conmoción ética primigenia –la que se sitúa en la base de lo ético- constituye, como ha mostrado Lévinas, una interpelación personal, una vocación que realmente sacude los cimientos de nuestra subjetividad en su misma raíz. Ante el rostro desnudo del otro, siempre vulnerable o expuesto, siempre interpelante, nuestra sensibilidad en su más hondo sentido queda herida en su interior, llagada. No aparentamos “ponernos en el lugar del otro”, cual haría una IA, al experimentar la empatía moral, sino que verdaderamente se remueven nuestras “entrañas” –corazón-.

Por ejemplo, ninguna IA puede escuchar por nosotros a otro ser humano en un alcance plenamente personal y moral, prestar a sus palabras o su situación la atención interior de quien se entrelaza desde dentro con el otro hasta intercambiar su propia posición con este, a causa de la vivencia del compromiso que esta escucha abre respecto al entrar en comunión con el prójimo. Claro que un sistema de IA puede recibir datos relativos a las necesidades de un humano, y oír sus palabras, y consolarle mediante un discurso u otro tipo de expresiones, o reaccionar con una actuación práctica beneficiosa. Sin embargo, todo esto, en el caso humano, posee una génesis distinta, vinculada a lo que aquí se ha expuesto de la vocación o llamada interior que resuena como un eco interno en nuestra subjetividad.

No cabe, por tanto, prescindir jamás, mediante el supuesto uso de la IA u otra tecnología, en una interpretación humanista, de nuestro auto-constituir seres responsables, apelados hondamente por el otro, llamados a conformar uniones fraternas y corresponsables con los demás. Hacerlo comportaría abolir aquello que nos identifica más profundamente.

 

Presupuestos metafísicos y hermenéuticos implícitos en las funciones de los artefactos de la IA

Otra cuestión, poco abordada, pero que merece la pena explorar, en este terreno, se halla en los presupuestos más hondos contenidos en toda IA respecto a su propio ser y las razones primordiales de su modo de reaccionar, así como incluso la relación de todo ello con las preguntas más profundas o fundamentales planteadas por la realidad. ¿Están estos presupuestos implícitos o no en los entes tecnológicos de esta clase, de algún modo, más allá de la consciencia puntual sobre ello alcanzada por sus creadores, usuarios o por tales artefactos?

Este orden de reflexión va más allá, sin duda, que el del mero horizonte marcado por el respeto del principio de “explicabilidad” de la IA (Ortiz de Zárate Alcarazo, L. 2022), o el de interpretabilidad[12]. Mediante estos dos principios éticos de la IA se reclama, como sabemos, la transparencia de su funcionamiento, la facilitación de la comprensión y el acceso a la estructura lógica de sus procesos, e incluso lo consistente con la realidad del método concreto adoptado por estos sistemas a la hora de inclinarse hacia una u otra decisión o curso de acción (en especial, cuando estos afectan más estrechamente a las personas). Por otro lado, a estas pautas se unen, también, por ejemplo, los principios o claves éticos de la equidad, la no causación de daños, el respeto a la autonomía del sujeto, la prudencia o precaución y la salvaguarda de la intimidad, etc.

Los artefactos técnicos poseen presupuestos filosóficos implícitos

Ahora bien, aquí no nos limitamos a este nivel de análisis, sino que nos adentramos en las raíces postreras del ser y de la naturaleza de la IA y en el alcance último de sus peculiares dinamismos. Así, aunque algunos puedan creer que los artefactos técnicos y la IA no se construyen sino gracias a elementos puramente materiales o físicos, y que solo parten y manejan datos a-filosóficos, esto constituye un engaño o bien una ignorancia. Implícitamente, todo sistema de IA ya nace determinado respecto a ciertas cuestiones fundamentales. Ello resulta casi inevitable, por cuanto dichas cuestiones y planteamientos subsisten siempre, aunque sea pre-conscientemente, en los autores de semejantes entes. ¿Cómo no van a afectarles, entonces, a estos dinamismos, las tomas de postura previas e implícitas más hondas de quienes los han concebido o entrenan de acuerdo a una u otra orientación precisa?

 

Origen y fin fundamentales: el sentido en relación con la IA y los sujetos humanos

Procesar una información implica interpretarla 

Entre las preguntas metafísicas o fundamentales es sabido que figuran inquietudes de muy diverso tipo, tales como las referentes al origen último de lo real, al fin y destino de los seres, e incluso a la legitimidad de la respuesta en torno a un sentido posible de la existencia o a la dimensión espiritual y de relación con lo transcendente. Mas, ¿por qué, al cabo, no resultan esquivables o eludibles esas inquietudes o preguntas radicales, en su significado filosófico, en las realizaciones de los humanos y así en los sistemas de IA?

La respuesta a la cuestión enunciada conecta con un hecho, y este radica en que quienes engendran tales sistemas los dotan de entrada de una forma precisa de proceder a la hora de buscar la información, organizarla y presentarla. Mas, la información se selecciona y articula, se registra y estructura, inevitablemente, de acuerdo a ciertos patrones y modelos. Estos patrones responden a modos concretos de entender lo real y el mundo.

La información –incluso antes de convertirse en conocimiento y, luego, en saber vital- conlleva siempre un método; ahora bien, este obedece a unas “pre-concepciones” acerca de la realidad (como el papel del valor de lo útil y el de lo verdadero, o la jerarquía precisa de los distintos valores en juego a la hora de informar e informarse). Gadamer (1997) enseñó cómo esas pre-concepciones de todo tipo y especie desempeñan un papel central en cualquier posible comprensión. Este pensador mostró las raíces de cualquier hermenéutica e interpretación fecunda del conocimiento[13].

Hay un sujeto, con sus preconcepciones, detrás de toda información

Martin Buber. Imagen 4

Comprender, siempre, en el fondo, supone interpretar; y el interpretar, hasta hacer algo comprensible y comunicarlo, no se da sino desde una corriente subterránea, más o menos advertida. Se trata de una marea interna y en movimiento de prejuicios, en su alcance positivo, marea cuyas raíces se hunden en la experiencia histórica, individual y grupal, de nuestra subjetividad, proyectada luego en formas diversas. De hecho, tras todo texto –texto procede del verbo tejer, imbricar-, de tenor significativo, se encuentra al cabo un sujeto que entreteje sus diversos hilos, incluso varios sujetos, por cuanto no hay yo sin tú ni tú sin yo (Buber, 1993): cualquier texto dotado de significación y sentido, desde la óptica humana, aunque no lo exprese o reconozca, responde a una relación inter-personal en cierto modo.

A causa de lo anterior, una IA determinada, ante nuestras cuestiones y demandas, simplemente aparentará proporcionarnos datos desnudos de intenciones y de preter-intenciones y motivaciones. Evitará referirnos por tanto a su raíz postrera, dada su obediencia inicial al principio de utilidad.

Implicaciones en el ámbito de lo trascendente

Esto obviamente comporta relevantes implicaciones en el orden de lo espiritual, de lo religioso, en la relación con lo transcendente; un terreno inalcanzable de suyo para la IA (tal como he intentado mostrar en mi artículo especializado a este respecto; cf. https://telos.fundaciontelefonica.com/ia-y-espiritualidad/). Así, por ejemplo, si hoy se pregunta al chat-GPT si cree en Dios o en alguna forma de divinidad, este responde que eso no puede hacerlo o dejar de hacerlo, ya que constituye un mero sistema neutral que se sitúa exclusivamente en el orden o nivel de lo natural, y que las creencias acerca de la divinidad pertenecen por completo a la esfera de lo sobrenatural. Añadirá que este acto no resulta de su competencia o interés, ya que únicamente persigue satisfacer y servir a los sujetos humanos.

Resulta evidente que sus programadores han excluido lo referente a lo transcendente del escenario del mundo, lo han expulsado del ámbito de lo práctico, condenándolo al exterior de lo real, al menos en relación con esta clase de IA. Ahora bien, desterrar así a lo divino y con ello a cualquier creencia relacionada con lo no material, o lo espiritual, de todo el orden de lo natural y de lo real, representa una toma de postura determinada, aunque sea bajo el parámetro del valor de la utilidad informativa.

Todas las posiciones sobre Dios son igualmente válidas

También, cuando se le pregunta al mismo sistema si, aunque él no lo haga, debe creerse o no en la existencia de lo divino, este nos replicará que se trata de una elección completamente subjetiva, ya que hay quien cree y quien no cree; y no advertirá que puede resultar más razonable creer que descreer o a la inversa. En un juego de equidistancias especulares, presentará todas las alternativas y posiciones relativas a la divinidad, lo Absoluto y lo transcendente como si fueran semejantes en su peso o valor de verdad o verosimilitud.

Pero en el fondo lo que nos tapa o sitúa en la sombra, estriba en que alguien o algo, antes, previamente, ha tomado la decisión en su caso de poner en el mismo plano todas las posibles respuestas en este campo. Y lo ha hecho por ciertas razones…, como el no querer tomar partido salvo a favor de este su no tomar supuestamente partido alguno. Ahora bien, estas motivaciones implícitas en esta clase de reacción de la IA no deben permanecer escondidas.

Tampoco se pronunciará el Chat-GPT actual acerca de lo razonable o lo justo de creer en algún ser –el que fuera- en tanto fundamento último de sentido o existencia, o bien creador primero, o bien principio de la fraternidad o amor, o bien ser personal y único transcendente que se ha revelado en la Historia, etc.

Agnosticismo deísta

En síntesis, no integrará diversos niveles realmente existentes y distinguibles en el interior de la creencia en lo transcendente en una Teodicea concreta (“Teo-dikea”, de “Diké”: justicia). Esto, en apariencia. Y, al aparentar no hacerlo, ocultará que su propia e inherente Teodicea –teología natural o desde la razón- se ha inclinado ya por una forma de “agnosticismo”, o sea por una afirmación de la imposibilidad de alcanzar un conocimiento verdadero y fiable, compartible, acerca de la existencia o no de la divinidad y de lo transcendente.

A la par, esta aparente “a-Teodicea” co-implicará incluso un tipo de “deísmo”. Esto es: una visión de lo divino o transcendente como realidades indefinidas en cierto alcance, y que se muestran  -en su utilidad como datos de información- ajenas a lo humano, distantes pues a este tenor; mas ello comporta el optar por el alejamiento o división radicales entre lo natural y lo Absoluto, por una “creencia” que predica sin reconocerlo la negación del hecho o bien de la posibilidad de que estas realidades o dimensiones de lo real pueden relacionarse, entrelazarse, comunicarse y hasta encontrarse en este mundo, de alguna manera fecunda como conocimiento para y del sujeto.

Aparente neutralidad o falsa ausencia de posicionamientos

Todo lo precedente lo realizará y realiza la IA, al objeto de comportarse como si solo nos brindara un abanico de informaciones no jerarquizadas y equivalentes, procedentes de fuentes externas o de su entrenamiento respecto a nosotros u otros. Pero esta misma forma de proceder y su apariencia de “imparcialidad” velan ya el que todo lo existente y preferido en orden al conocer se mueve y sitúa en distintos niveles de valor y aún de densidad ontológica. Por ejemplo, la IA, ante interrogantes relativos al sentido vital y su vínculo con lo transcendente, aparentará asimismo no pronunciarse ni comprometerse –tal como se ha mostrado antes en relación con lo divino y su existencia-. Argüirá también su “neutralidad”, al presentarnos en un orden de igualdad total y aséptico las diferentes afirmaciones o enunciados, procedentes de unas u otras fuentes, grupos y personas a este respecto.

Sin embargo, igualar sin más, dejar de pronunciarse de modo “personal”, tratar como supuestos datos puros o asépticos, las respuestas y preguntas en torno al sentido u orientación vitales más hondos, implica ya de suyo una posición hermenéutica y metafísica concretas.

En metafísica y teología no cabe la imparcialidad

Mas, cabe objetar que no hay neutralidad auténtica en diálogo alguno que trate o verse acerca del sentido en su alcance más profundo, de los porqués postreros, de las orientaciones vitales básicas, de lo transcendente, etc. Ya sabemos que todo pronunciamiento informativo encarna en sí mismo una toma de postura, aunque esta sea la del que se auto-presenta como un tercero o filtro, objetivo e independiente, del dato manejado. Cuando la IA se manifiesta en relación consigo misma es, de hecho, precisamente, cuando debemos estar más en guardia a su respecto. Así, cuando se considera y auto-evalúa como un juez totalmente imparcial, en cuanto a lo metafísico y teológico, ya nos está velando que desde su origen el que alguien ha tomado partido por esa hipotética apariencia de “independencia”.

No, no es equivalente afirmar o negar que existe un fundamento o sentido de fondo para este mundo y lo que lo habita. Pues, ese fundamento podría constituir una realidad mucho más genuina, nuclear y al cabo consistente o valiosa que cualquier funcionalidad o utilidad a la que subordinemos un preferible no “pronunciarse” sobre esto. Hacer justicia, en cuanto a su reconocimiento y realidad, a este horizonte germinal de sentido, importa y aporta mucho más que el mero enunciar, de una manera igualitarista, la variedad de convicciones subjetivas posibles a su respecto. De manera que conviene no caer en ingenuidades a este propósito y extremar la cautela. Cuanto más honda y radical sea nuestra pregunta, en suma, con más cuidado tenemos que evaluar las respuestas que nos propone la IA.

 

Sobre los a priori gnoseológicos y ontológicos de los sistemas de la IA

La IA se presenta como carente de prejuicios

No olvidemos nunca que cualquier IA, en su inspiración y funcionamiento, obedece en su alcance a unos presupuestos hermenéuticos y metafísicos, que se encuentran en su base. Despliega, así, su actuación sobre las columnas subterráneas de unos pilares, en forma de “prejuicios” hermenéuticos -del conocer o gnoseológicos y del comprender-, asentados en lo que resulta previo a su desenvolvimiento práctico. Estos “a priori” pueden proceder de sus artífices, o bien de los pseudo-aprendizajes que a este propósito desarrolla la IA con diferentes sujetos. Advirtamos, en fin, que su no tener otro criterio que el de determinadas fuentes sobre lo real -y no obviamente todas-, y el igualarlas o equipararlas su valor -y esto acerca de lo más profundo de la realidad-, ya entraña un punto de partida inicial, un cimiento concreto a su respecto.

Ahora bien, la IA con frecuencia nos va a presentar su propio punto de partida operativo como des-prejuiciado y, en cierto modo, como no subjetivo e impersonal. Por el contrario, los humanos podemos ignorar estas preguntas, o buscar tentativamente y proponernos su respuesta, incluso atender a los otros en ellas. Mas, lo haremos desde nuestra identidad propia y personal una identidad ciertamente de sujetos, aunque no por ello menos confiable o digna de atención. Nuestro vernos comprometidos con nuestras preguntas y búsquedas de sentido más hondas no nos convierte en fuentes desechables, sino más bien todo lo contrario.

El conocimiento humano no está desvinculado de la propia existencia

Viktor Frankl. Imagen 5

La subjetividad en el conocer humano constituye un método, un camino hacia lo verdadero, pues enriquece y fecunda su busca. En esta indagación del sentido, de hecho, nos jugamos cada cual la vida, en determinado alcance; nos va en ella lo que más importa, lo más íntimo, y esto supera en valor el orden de lo simplemente útil. Así, no nos cabe el no vernos habitados, íntimamente, de alguna manera, por tales preguntas-respuestas, en tanto nos cuestionan a nosotros mismos sobre el fondo de lo real y aún por cualquier orientación para la existencia presente en nuestro lenguaje o conocer. Vivir, para nosotros, es anhelar algún sentido, buscarlo y descubrirlo en persona, también mediante la palabra y el encuentro. Ello, indudablemente, representa una clave existencial básica para los sujetos humanos, según mostró la logo-terapia o terapia-del sentido de Frankl (2005)[14].

He aquí una diferencia cardinal con los entes de la IA y su modo de manejar estos interrogantes y respuestas. Nuestro humano conocer, de hecho, nunca representa un impersonal e indiferenciado intercambio. Este siempre reobra sobre nuestra subjetividad y la transforma, mas no en lo puramente funcional u operativo. Ello, por cuanto somos inter-pelados por nuestro conocer lo real existencialmente y en nuestro yo. Esto sucede y resuena en nuestro interior de una forma personalísima e íntima. Así, no nos limitamos a acopiar las informaciones, opiniones o impresiones ajenas, respecto a lo que cobra o no un sentido a nuestros ojos, como en cambio ocurre con los artefactos de la IA. Nuestra subjetividad se vincula, en sus propios fundamentos ontológicos, con nuestra orientación en esta vida y, así, con nuestra genuina “originalidad” y vocación personal, siempre incomparable e irrepetible.

El ser humano no puede evitar posicionarse ante la cuestión del sentido

En definitiva, el sentido y las cuestiones asociadas a él nos alcanzan, querámoslo y sepámoslo o no. Por ejemplo, aunque renunciemos a formularnos la tarea existencial de la metafísica o la busca del ser y la de la interrogación acerca de lo superior o transcendente al mundo, aunque abdiquemos de traer a nuestra consciencia nuestra relación concreta con lo que está más allá de lo puramente físico, lo hacemos siempre sin lograr evitarlo en primera persona. Adoptamos, en fin, una posición existencial –la nuestra- desde un yo, comprometido por su actitud y que, entonces, quiera o no, se ve implicado en la misma, pues no se reduce a reflejar las actitudes respecto de lo más radical o fundamental que expresan los otros.

El sesgo cognitivo de la IA

En síntesis, estos presupuestos implícitos y tácitos, tanto hermenéuticos como ontológicos, condicionan y orientan en su base el funcionamiento de los sistemas y artefactos de la IA, sin poderlo evitar. De alguna manera, actúan respecto de ellos como un “sesgo cognitivo”; en concreto, un sesgo del tipo “punto ciego”. Esto, ya que tales sistemas y mecanismos no reconocen reflexivamente su influjo, por cuanto se auto-presentan desde el prejuicio de la neutralidad, la objetividad o el mero pluralismo respecto de las fuentes de la información que proporcionan y manejan.

La ausencia de una identidad personal real, y de su implicación en este orden, ante las cuestiones del sentido o las inquietudes fundamentales respecto a la orientación de la existencia, tinta o colorea la naturaleza y el desempeño de tales artilugios técnicos. Así, ello comporta una frontera o diferencia clave en relación con los seres humanos, cuya subjetividad no es hurtada sin embargo en el nivel más hondo o del sentido de la realidad y de la existencia. Este nivel, en cambio, se abre vivencialmente, desde su mismo fondo personal, con uno u otro alcance definido, en el sujeto humano.

 

Conclusiones 

Diferencias ontológicas, gnoseológicas y morales entre el ser humano y la ia
IA. Imagen 6

Esta reflexión ha indagado en torno a las fronteras detectables entre los seres humanos y los entes tecnológicos de la IA. Al ahondar en los límites recíprocos, se ha hecho patente el ser característico de cada una de estas realidades. Así, se han analizado críticamente, de un modo filosófico o reflexivo, las diferencias fundamentales que parecen presentarse entre ambas clases de entidades.

En esta senda, se han abordado aspectos tales como la sensibilidad moral, la responsabilidad ética, lo relativo al sentido incluso, o las tomas de posición o presupuestos de partida nucleares de tipo hermenéutico y metafísico. También, se ha reflexionado en este texto en torno a la decisiva cuestión del lenguaje y del peculiar o característico desarrollo del mismo por parte de los humanos, en particular en cuanto a su imbricación con la persona y con su afán de orientarse en la existencia. Junto a lo hermenéutico y metafísico, se ha explorado la dimensión de lo trascendente y el papel de la toma de posición o vivencia singular a su respecto de cara a la identificación personal.

Por último, de los análisis expuestos se desprende que una diferencia crucial entre ambos tipos de entes se halla vinculada con la subjetividad personal, inherente en lo humano. Acerca de esta, se ha advertido su conexión íntima con el nivel abierto por el campo o cuestión del sentido, un área que palpita en el interior de la persona concreta, más allá de sus formulaciones o expresiones, y que relaciona al sujeto humano con las bases mismas de su existencia de una forma radicalmente original.

 

 

Otros artículos de fondo escritos por Javier Barraca publicados en esta web:

 

 

FUENTES

Barraca, J. (2024). “IA y espiritualidad”. Revista Telos, Fundación Telefónica, 2 de abril de 2024; https://telos.fundaciontelefonica.com/ia-y-espiritualidad/

Buber, M. (1993). Yo y Tú, Caparrós, trad. C. Díaz, Madrid.

Camacho, J. y Villas, Mónica (2022). Manual de ética aplicada en inteligencia artificial, Editorial Anaya Multimedia, Madrid.

Casacuberta, D. y Guersenzvaig, A. (2022). “Las falacias del encantamiento con la inteligencia artificial de ChatGPT”, en SINC (ciencia contada en español), innovación-análisis, 16 del 12 2022; https://www.agenciasinc.es/Opinion/Las-falacias-del-encantamiento-con-la-inteligencia-artificial-de- ChatGPT.

Unión Europea. Comisión Europea (2020). Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza; COM (2020) 65 final, Bruselas; https://op.europa.eu/es/publication-detail/-/publication/ac957f13-53c6-11ea-aece-01aa75ed71a1. Consejo europeo y parlamento europeo (2024). Reglamento de IA; consilium.europa.eu/es/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/

Fernández Fernández, J. L. (2021). “Hacia el Humanismo digital desde un denominador común para la Cíber Ética y la Ética de la Inteligencia Artificial”. En Disputatio, Philosophical Research Bulletin, vol. 10, nº 17, junio 2021, pp. 107-130.

Frankl, V. (2015). El hombre en busca de sentido, Herder, Barcelona.

Gadamer, H. G. (1997). Verdad y método (I), Sígueme, Salamanca.

(2006). Estética y hermenéutica, Tecnos, Madrid.

González, G. (2021). Ética y responsabilidad: la condición responsiva del ser humano, Tecnos, Madrid.

Lévinas, E. (1993). Humanismo del otro hombre, trad. G. González R.-Arnáiz, Ed. Caparrós, Madrid.

Lévinas, E. (2002). Totalidad e Infinito, Ed. Sígueme, trad. D. E. Guillot, 6ª ed., Salamanca.

López Quintás, A. (2022). Las cimas de la cultura y el ascenso al amor oblativo: un método educativo ilusionante. Ed. UFV, colecc. Digital, Pozuelo de Alarcón (Madrid).

Maceiras, M. (1994). Identidad y responsabilidad, discurso de apertura del curso académico, Madrid, Universidad Complutense de Madrid.

Madrid, R. (2023). “Las máquinas y la agencia moral“, en: Introducción a la Ética y el Derecho de la Inteligencia Artificial, AA.VV., coord. Michelle Azuaje, Ed. por La ley y la Universidad Alberto Hurtado, Santiago de Chile, pp. 87-100.

Molina, S. (2023). “Cómo utilizar ChatGPT de forma eficiente para impulsar tu carrera”, en VOGUE: BUSINESS, 12 de enero; business-vogue-es.cdn.ampproject.org.

Ortiz de Zárate Alcarazo, L. (2022). “Explicabilidad (de la   inteligencia artificial)”, en Eunomía: revista en Cultura de la Legalidad, 22, 328-344. DOI:   https://doi.org/10.20318/eunomia.2022.681. https://e-revistas.uc3m.es/index.php/EUNOM/article/view/6819/5372. Consultado el 14-6-2023.

 

 

 

NOTAS

[1] Cf. la visión global expuesta en: Fernández Fernández, J. L. (2021). “Hacia el Humanismo digital desde un denominador común para la Cíber Ética y la Ética de la Inteligencia Artificial”. En Disputatio, Philosophical Research Bulletin, vol. 10, nº 17, junio 2021, pp. 107-130.

[2] Cf, como texto básico reciente sobre esto: Camacho, J. y Villas, Mónica (2022). Manual de ética aplicada en inteligencia artificial, Madrid: Editorial Anaya Multimedia.

[3] No hace falta señalar lo valioso de su obra especializada en esto: Gadamer, H. G. (2006), Estética y hermenéutica, Tecnos. 

[4] Esta reflexión surge al hilo de su aplicación práctica, en efecto. Cf. Molina, S. (2023): “Cómo utilizar ChatGPT de forma eficiente para impulsar tu carrera”, en VOGUE: BUSINESS, 12 de enero; business-vogue-es.cdn.ampproject.org (consultado: 29-1-2023).

[5] No son tan frecuentes críticas especializadas, como la que vemos en efecto en: Casacuberta, D. y Guersenzvaig, A. (2022), “Las falacias del encantamiento con la inteligencia artificial de ChatGPT”, en SINC (ciencia contada en español), innovación-análisis, 16 del 12 2022; https://www.agenciasinc.es/Opinion/Las-falacias-del-encantamiento-con-la-inteligencia-artificial-de- ChatGPT (consultado: 30-1-2023).

[6] He aquí un autor clave en torno a lo relacional humano, como revela su reciente texto: López Quintás, A. (2022). Las cimas de la cultura y el ascenso al amor oblativo: un método educativo ilusionante. Ed. UFV, colecc. Digital, Pozuelo de Alarcón (Madrid).

[7] Este enfoque centra lo humano sobre el eje de la responsabilidad, como revela el texto: Ética y responsabilidad: la condición responsiva del ser humano, G. González Rodrígez-Arnáiz, Tecnos, 2021.

[8] Se transcribió por la UCM como texto; así, cf. Maceiras, M. (1994), Identidad y responsabilidad, discurso de apertura del curso académico, Madrid, Universidad Complutense de Madrid, 1994.

[9] En torno a la génesis de lo ético y su centralidad para lo humano, cf. Lévinas, E. (2002): Totalidad e Infinito, Ed. Sígueme, traducción de D. E. Guillot, 6ª ed.

[10] De nuevo, en efecto, cf. E. Lévinas, Humanismo del otro hombre, cit.

[11] Muy sugerente la meditación a este tenor de R. Madrid, “Las máquinas y la agencia moral“, en: Introducción a la Ética y el Derecho de la Inteligencia Artificial, AA.VV., coord.. Michelle Azuaje, Ed. por La ley y la Universidad Alberto Hurtado, Santiago de Chile, 2023, pp. 87-100.

[12]Sobre estos rasgos y otros conexos, en efecto, cf. “Explicabilidad (de la inteligencia artificial)”, Lucía Ortiz de Zárate Alcarazo, en:  EUNOMÍA: revista en Cultura de la Legalidad, Núm. 22 (2022), Univ. Carlos 3, Madrid. DOI: https://doi.org/10.20318/eunomia.2022.6819.

[13]Esto, por ejemplo, en su obra acaso más significativa: Gadamer, H. G. (1997). Verdad y método (I), Sígueme, Salamanca.

[14]Véase su célebre obra: Frankl, V. (2015). El hombre en busca de sentido, Herder, Barcelona.

About the author

Javier Barraca Mairal
Profesor titular de Filosofía at Universidad Rey Juan Carlos (Madrid) | Website | + posts

Javier Barraca Mairal es profesor titular de Filosofía de la Universidad Rey Juan Carlos

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *