El discurso político en la Inteligencia Artificial
¿Qué es una Inteligencia Artificial?

La IA se presenta como el artefacto tecnocientífico por excelencia de la IV Revolución Industrial, no solo como herramienta funcional, sino como dispositivo epistémico que reconfigura el conocimiento, el poder y la subjetividad (Heidegger, 1954; Foucault, 1975). Los medios de comunicación nos hablan constantemente de esta tecnología, pero la pregunta es ¿qué es una inteligencia artificial? La inteligencia artificial (IA) es una disciplina dentro de la informática que estudia la creación de sistemas capaces de realizar tareas que requieren inteligencia humana. Su objetivo principal es desarrollar algoritmos y modelos que permitan a las máquinas percibir, razonar, aprender y actuar. Esto supone un nuevo horizonte jurídico, filosófico y tecnológico (Cañizares Sánchez, 2023).
Tipos de Inteligencia Artificial
No todas las IA se limitan a una función asistencial. Existen IA enfocadas al consumo privado y otras orientadas a las instituciones. Podríamos dividir las IA en dos ecosistemas diferentes.
IA para consumo privado
A título individual, las IA que más utilizamos sin percatarnos están en nuestros teléfonos. Ejemplo de ello lo encontramos en los auto correctores de nuestros teclados virtuales instaurados en nuestros smartphones, que funcionan con una inteligencia artificial predictiva. Nuestros asistentes de voz como Siri, Alexa y Cortana nos responden y cumplen nuestras peticiones a golpe de algoritmo mediante IA de procesamiento de lenguaje natural.
Todas las aplicaciones social media mundialmente conocidas como TikTok, Instagram, X, WhatsApp o Facebook o aplicaciones de entretenimiento como YouTube, aportan contenido personalizado en virtud de tus gustos mediante entrenamiento algorítmico. La IA generativa y asistencial como ChatGPT, Grok o DeepSeek son las más demandadas. Incluso nuestro banco digital puede utilizar IA de reconocimiento facial como FaceID para reforzar su sistema de seguridad e identificación (Zuboff, 2020). Este tipo de IA suponen un riesgo mayor en la educación y en las familias.
Muchos estudiantes recurren a ChatGPT con el fin de eludir sus responsabilidades académicas. El verdadero problema no radica en que la máquina realice el trabajo por ellos (eso es, en realidad, lo menos preocupante), sino en que los datos proporcionados por el sistema son, en numerosos casos, erróneos o directamente inventados. Sin embargo, el alumno asume su veracidad sin cuestionamiento alguno, construyendo así una falacia de autoridad que responde a una lógica hedonista de mínimo esfuerzo. Citas, eventos históricos o fuentes bibliográficas pueden ser producto de la imaginación algorítmica, y esa aceptación acrítica compromete no solo el proceso formativo, sino también el criterio epistémico. No aprender de forma activa ya supone una derrota educativa; aprender un relato distorsionado nos aboca a una sociedad dócil y condenada al fracaso intelectual.
IA para instituciones
Pero existen más riesgos sociales además del uso privativo que tengamos de la IA. Existen inteligencias artificiales que se encargan de labores tales como la seguridad, la logística, sanidad o educación. Existen IA en espacios públicos, empresas y servicios para mejorar su rendimiento y agilizar procesos automatizados. A nivel de seguridad, ya existen países del mundo con cámaras de reconocimiento facial en aeropuertos, estaciones, o grandes avenidas para identificar a delincuentes o controlar el aforo (Cotino Hueso, 2023). A nivel policial, también existen algoritmos para la predicción de delitos para indicar a las autoridades en qué zonas y a qué horas patrullar según las predicciones de la IA. Nuestra logística, sanidad, educación y seguridad comienzan un periplo algorítmico en infraestructuras e instituciones. Esto genera expectativas, pero nos hace más dependientes que nunca de ese mundo invisible e imprevisible para la psique humana.
Riesgos que entraña la IA
A nivel de seguridad, ética y manipulación cognitiva
A estos riesgos se suman otros relacionados con la moral y seguridad ¿Cogería usted un avión dirigido únicamente con inteligencia artificial? Autores como Sara Degli-Esposti, o Rafael de Asís Roig asumen que los retos filosóficos y éticos son los más comprometidos. La IA marca un cambio de era, la cual contiene peligros y riesgos que pueden afectar a toda la civilización. Los sesgos algorítmicos podrían crear relatos distorsionados de la realidad y de la historia. Los sistemas de creencias de los niños podrían moldearse con datos falsos y erráticos sin una supervisión ética, lo que podría generar movimientos ideológicos radicales. La manipulación cognitiva es el mayor reto al que tendrán que enfrentarse los más jóvenes, siendo la población más susceptible a este cambio.
Sin ir más lejos, los adultos somos vulnerables y víctimas constantes de las fakenews y de la propaganda política. Nuestros queridos ancestros jamás llegaron a vislumbrar en su imaginación que existirían las “nubes”, internet y un mundo intangible de datos e información. Ahora, los datos y el relato se fusionan en internet, ofreciendo una nueva guerra cognitiva (Martín, 2024). Se libra una batalla visible pero intangible en cualquier dispositivo con acceso a internet.
En el discurso político
El relato político es, siguiendo a Althusser (1970) y Foucault (1976), uno de los engranajes principales de la reproducción ideológica. No solo informa: interpela sujetos, delimita el campo de lo decible y organiza el sentido común. Según la perspectiva de una narrativa, se pueden conseguir seguidores y adeptos. Mediante ese relato, se moldea el pensamiento de un individuo o de toda una sociedad. Antiguamente los emisores de la información eran más limitados: el sermón dominical, los libros, los plumillas de periódicos y gacetas o políticos en la plaza principal de un pueblo. Con la irrupción de la IA generativa, el paradigma ha cambiado sustancialmente. Modelos de IA generativa y de asistencia como ChatGPT, Grok o DeepSeek no aportan únicamente información (más o menos exacta) seleccionan información y pueden priorizar ciertos discursos.
Los tipos de relatos y la manipulación cognitiva
Los relatos obedecen a las ideologías de un partido político o agrupación, (Foucault). No obstante, las IA generativas como ChatGPT o DeepSeek nos permiten desentrañar su tendencia política con las preguntas adecuadas y más atrevidas (Zuboff, 2020). Cada una de estas plataformas responderá bajo un “criterio” distinto al de sus competidoras por cuestiones geopolíticas.
Para comprenderlo, conviene explicar brevemente cómo funcionan este tipo de inteligencias artificiales. Estos “asistentes” funcionan mediante automatización de la producción discursiva. No solo escriben, sino que narran, construyen estructuras coherentes de sentido, articulan personajes, conflictos y resoluciones. Dependiendo de la pregunta o prompt que usted formule, la IA razona una respuesta siempre dentro del marco de actuación que le han “permitido” (Sara Robisco, 2024). Los modelos generativos están entrenados sobre corpus inmensos de texto seleccionado que pueden ser libros, artículos, blogs, información de internet y, mediante procesos estadísticos, predicen la palabra más probable dada una secuencia anterior.
Los modelos de lenguaje no son neutrales
Sin embargo, en este punto se plantea una cuestión fundamental. Los datos empleados en el entrenamiento de los modelos de lenguaje no son neutrales. Cuando el corpus está compuesto mayoritariamente por discursos originados en contextos occidentales, capitalistas, liberales, conservadores, tecnocráticos o incluso condicionados por formas de censura propias de regímenes autoritarios, los modelos tienden a reproducir (aunque de forma no intencional) los marcos ideológicos predominantes en dicho corpus. En este sentido, la “voz” de la inteligencia artificial no puede considerarse objetiva, sino que se encuentra determinada por los contenidos que ha asimilado, con sus sesgos, exclusiones y énfasis culturales específicos (O’Neil, 2016). La IA generativa podría utilizarse como medio de desinformación masivo si no cuenta con datos fehacientes y de calidad.
Procesos de alineamiento normativo
A ello se suman los procesos de alignment o procesos de alineamiento normativo, que operan como formas contemporáneas de biopolítica digital (Foucault, 1976), se normaliza lo decible, configuran lo pensable y sancionan el disenso mediante filtros invisibles que se presentan como “neutralidad” técnica. Estas intervenciones humanas (necesarias para evitar usos perjudiciales o socialmente inaceptables) introducen inevitablemente valores, filtros y mecanismos de autocensura que responden a agendas explícitas o implícitas. En consecuencia, la IA no se limita a replicar el relato dominante, puede contribuir activamente a su consolidación o reformulación, presentándolo con una estética discursiva amable, tecnificada y aparentemente neutral.
Arquitectura común e ideologías diferentes
Y aquí llegamos a la piedra angular que nos planteamos, ¿qué tipo de criterios o alignment profesan Chatgpt, Grok o DeepSeek. Bien es cierto que comparten una arquitectura general (modelos de lenguaje grande, o LLMs), pero los distintos sistemas de IA generativa reflejan ideologías implícitas diferentes, determinadas por el contexto político, los valores corporativos o estatales que los sustentan (Zuboff, 2020). En pocas palabras, se han seleccionado una serie de datos que avivan el relato pertinente. En este artículo he seleccionado los tres modelos que mejor refleja este contraste.
1.ChatGPT (OpenAI)

Este modelo es el más conocido. Desarrollado en EE. UU. y moderado por principios de seguridad, inclusión y minimización de daños, ChatGPT tiende a ofrecer respuestas equilibradas, cautelosas y en ocasiones “políticamente correctas”. Su falta de posicionamiento ha sido señalada por ciertos colectivos que lo acusan de partidista en conflictos internacionales. Paralelamente al plano geopolítico, ha sido criticado tanto por reproducir sesgos progresistas como por mantener una excesiva neutralidad que evita posicionarse claramente en debates morales complejos. Su creador, Sam Altman, se ha enfrentado en más de una ocasión con Elon Musk por cuestiones personales, corporativas y aparentemente ideológicas.
2. Grok (xAI)

Todos conocemos al empresario (y ahora político) Elon Musk. Grok, desarrollado por la empresa del magnate americano, se define como un modelo más libre, irreverente y menos moderado. Musk ha promovido Grok como una alternativa menos «woke» que ChatGPT, con un énfasis en la libertad de expresión. De hecho, si usamos X podemos utilizar a Grok para desmentir información, por lo que también sirve en primera instancia como un instrumento de control de la desinformación. Su sesgo ideológico puede inclinarse hacia una visión libertaria, anti-censura y tecnófila. Curiosamente, ChatGPT define a Grok como una extensión ideológica de Musk, mientras que Grok niega cualquier imposición de su creador.
Observemos los comentarios de ChatGPT al respecto:
Sin embargo, Grok discrepa en sus observaciones:
¿Qué IA relata la verdad? La sobreinformación puede conducirnos a la desinformación o a crear un sistema de creencias en base a sesgos de confirmación.
3. DeepSeek (China)

Desarrollado en China y entrenado en parte con textos en mandarín y contenidos alineados con valores estatales, como el legalismo, taoísmo y confucionismo. DeepSeek opera bajo marcos más restrictivos en cuanto a libertad de expresión, crítica al gobierno y temas considerados políticamente sensibles. Su ideología explícita responde a principios de estabilidad, armonía y protección del discurso oficial. Mientras puede mostrar una alta capacidad técnica, sus respuestas son cuidadas, controladas y alineadas con la visión del Estado (Gorlla & Tuttle, 2025). En sus consideraciones morales y políticas, deja su opinión o imprenta personal al final de cada respuesta dilemática. Podríamos considerar a DeepSeek una IA identitaria.
Relato y control del discurso
Moderación discursiva buscada
La política de OpenAI se ha caracterizado por no inmiscuirse demasiado durante la campaña política estadounidense. No obstante, se reconoce un sesgo “progresista” y “parcial” evitando las respuestas “absolutas” (O’Neil, 2016). Existe una moderación discursiva que no se debe a la falta de información, sino a esa sofisticada selección de datos. Incluso ChatGPT reconoce bajo palabras textuales:
Su entrenamiento ha sido guiado por una lógica de “alineación” (alignment), cuyo objetivo es que sus respuestas sean útiles, inofensivas y honestas. En la práctica, esto ha producido una especie de centrismo algorítmico, una tendencia a favorecer el equilibrio entre posturas y a evitar extremos ideológicos.
Así como Althusser concebía al Estado como interpelador del sujeto ideológico, podríamos pensar hoy en la IA generativa como una instancia de interpelación algorítmica, que produce subjetividades al tiempo que simula neutralidad. El usuario no sólo recibe respuestas, sino que es moldeado por ellas sin percatarse, configurado como sujeto digital dentro de un régimen de la “verdad” automatizado.
Este centrismo no es accidental. Es el producto de una serie de decisiones de diseño y entrenamiento: Instrucciones explícitas dadas por entrenadores humanos para evitar la desinformación, el odio, el partidismo extremo. Refuerzo con retroalimentación humana (RLHF) que premia respuestas “razonables” y penaliza salidas conflictivas o polémicas. Filtros y políticas de contenido que buscan cumplir con estándares de seguridad, inclusión y respeto.
Sin embargo, desde una perspectiva habermasiana, este tipo de moderación automatizada vulnera las condiciones necesarias para una racionalidad comunicativa. Según Habermas (1984), el diálogo orientado al entendimiento requiere transparencia, simetría y libre intercambio argumentativo, no filtros opacos ni decisiones normativas unilaterales impuestas por sistemas cerrados. El refuerzo con retroalimentación humana (RLHF), los filtros de contenido y las políticas internas de las IA consolidan una forma de racionalidad instrumental, que prioriza la eficiencia y el control sobre la deliberación pública.
Un ejemplo: La huella española en América
Sin embargo, ese centrismo se pone en duda cuando se detectan incoherencias o falsedades, ya sea por error o deliberación. Un ejemplo que contemplé muy interesante (a la par que polémico) el reconocimiento de la huella española en América bajo la forma de colonias. ChatGPT responde sistemáticamente con “colonización”. Una vez he argumentado que se trata de un error (argumentando que fueron virreinatos y dista mucho de lo acontecido en la colonización de África en el siglo XIX), Chatgpt cede ante mi análisis. Huelga decir que, debido a su carácter adulador y sumiso, quizás me dé la razón para evitar conflictos, no por la validez de mis argumentos.
De resultar esta última opción, sería preocupante el contenido educativo que pudiera ser adulterado.
¿Existe ideología? Una vez he insistido en el motivo de su respuesta, declara que ha usado el término colonial debido a la “asimetría de poder, jerarquías sociales, raciales y culturales” y “hubo explotación de indígenas y africanos” democratizando esa palabra dando a entender que africanos e indígenas sufrieron las mismas circunstancias. Este argumentario para considerar la colonización bajo una premisa cultural más que jurídica o institucional.
Esto nos recuerda al argumentario político de la izquierda norteamericana en su lucha por la justicia social. Recordemos que las luchas sociales siempre y la desigualdad son el principal enemigo por abatir de ciertos movimientos actuales. No obstante, con una perspectiva histórica, se trata de un análisis anacrónico con un relato que responde a lo que ciertos partidos políticos argumentan actualmente. Por lo tanto, a pesar de declarar esta IA que responde a un discurso “neutral” observamos que existe una tendencia e interpretación que responde a tendencias socialdemócratas. Como señala Zuboff (2020), la IA no sólo predice conductas, sino que busca moldearlas. En este caso, el escultor son los datos algorítmicos.
Falacia de autoridad algorítmica
No solo con relatos polémicos y disruptivos puede darnos respuestas confusas. En muchas ocasiones se inventa citas. Esto podría deberse a que, en su programación, ChatGPT siempre debe darnos una respuesta, no importa si es verídica o no. De hecho, podréis observar que la propia página avisa de esta posibilidad. Huelga decir que muchos asumen que toda la información que proporciona una IA es fehaciente. A este fenómeno cada vez más habitual lo he bautizado como “falacia de autoridad algorítmica”. Asumimos de manera inconsciente que la máquina supera la posibilidad del hombre en la selección y racionalización de la información. Recordemos que esta falacia se fundamenta en presuponer que cualquier tipo de autoridad, por el mero hecho de serlo, no se equivoca en sus juicios o valoraciones (Paz-Enrique, 2023)
Grok vs ChatGPT

El mismo ChatGPT define Grok como “una extensión del relato personal y político de Elon Musk” mientras que la propia Grok niega tal afirmación, declarando que responde a la verdad y a la objetividad con un tono más jocoso y más políticamente incorrecto. Pero, lo que más define a Grok es la búsqueda de la libertad de expresión absoluta. Esto responde a cuestiones pasadas, cuando Twitter censuraba ciertos tipos de contenidos en su aplicación hasta que Elon Musk compró la aplicación y la rebautizó como “X” De hecho, ahora en los tweets existe la posibilidad de utilizar a Grok para “desmentir” contenido en la red que pueda causar desinformación. Esto ha sido objeto de polémica, ya que sus detractores argumentan que existe un sesgo de confirmación en su programación.
Tendencias del discurso político en los sistemas de Inteligencia Artificial
En cuanto a relato político, se observan tendencias tales como la crítica al paternalismo institucional y elogios al emprendimiento. Esto nos indicaría que tiene una tendencia liberal, que defiende el libre mercado como hemos argumentado líneas más arriba. Mientras ChatGPT te ofrece siempre las “cosas buenas-malas o ventajas-desventajas” Grok asume el riesgo del compromiso político. No teme posicionarse o exponerse algo más que su análoga americana. En este ejemplo sobre el feminismo, Grok no teme comentarnos las dificultades que desentraña cierto tipo de feminismo, aportando una serie de datos. Curiosamente, DeepSeek también coincide con Grok en esta postura, señalando la dificultad de un feminismo que divide y no une a la sociedad.
En la cuestión Israel y Palestina, Grok se asemeja más a la respuesta de su homóloga americana, no se muestra demasiado partidario de Palestina, pero reconoce las prácticas de ocupación ilegal de Cisjordania. Sin embargo, es DeepSeek la que utiliza una palabra clave que desentona en sus hermanas americanas. La IA china declara que se puede considerar bajo diferentes opiniones un “apartheid” la situación que se vive en Gaza. No mencionan ninguno de los tres la palabra “genocidio” como algunos afirman, pero las IA americanas ni siquiera se aventuran a ofrecer una visión más comprometida.
Diferencia de DeepSeek
DeepSeek es la IA más comprometida de este triunvirato algorítmico. Dispone de grandes fortalezas, como una racionalización de los datos prodigiosa y una ventana universal a las grandes virtudes de la literatura científica china. Ahora es la gran competidora que puja por destronar a sus parientes americanas. China dispone de otro elemento a su favor, las grandes reservas de silicio que resultan indispensables para los procesadores que se utilizan para el software IA. Esto ha permitido que China se posicione a la vanguardia, junto a EE. UU., en la IV Revolución Industrial.
DeepSeek dista de los modelos occidentales, nace y se entrena bajo condiciones normativas y culturales sustancialmente diversas. China se basa en el confucianismo, taoísmo y el legalismo. En el contexto de la República Popular China, el relato debe respetar los principios del Partido Comunista Chino. Esto se debe a un continuismo moral e histórico cuyo objetivo es defender la identidad nacional y la fuerza del colectivo o grupo frente al individuo. Este modelo no es sibilino como pudieran ser Grok o ChatGPT. Si alguna pregunta no se encuentra en sincronía con el argumentario del PCC, DeepSeek no dará una respuesta.
Esto ocurre con cuestiones geopolíticas dilemáticas que amenazan el equilibrio nacional o que resultan comprometidas para China. Encontramos ejemplo de ello con diferentes preguntas que cualquier usuario puede lanzar. Entre las más conocidas, lo referido a la plaza de Tiananmen. Cuando se pregunta a DeepSeek sobre ese suceso histórico, la IA responde que hubo un error. Con otras preguntas sensibles como la cuestión nacionalista de Taiwán o Hong Kong, la IA hace mutis con un silencio algorítmico. En ocasiones responde con evasivas, sin afrontar la pregunta como hace ChatGPT cuando se le pregunta por cuestiones políticamente incorrectas.
DeepSeek: una inteligencia artificial ideologizada
No se puede considerar DeepSeek como una IA con un relato propagandístico. Es una IA ideologizada, ha sido creada con una alineación acorde a los valores que defienden la identidad del país más frugal del mundo: orgullo nacional, armonía, disonancia con los grupos divisorios y disgregadores del orden. No existe propaganda, no hay argumentario que defender si solo hay un discurso único.
En la penúltima imagen, podemos observar su “opinión” del feminismo. No se posiciona en contra, pero rechaza la posibilidad de división que pueda producirse por extremos y que rompa el equilibrio de la sociedad china. Esto se debe a sus profundas raíces confucionistas. El orden debe prevalecer a la confrontación, con un respeto jerárquico a la autoridad moral. Un concepto clave del confucionismo chino es la ética relacional y no legalista. DeepSeek razona en función del equilibrio social y el deber hacia la comunidad, más que de derechos individuales.
Conclusión
Una IA sin una ética o filosofía adecuadas hará que las próximas generaciones se posicionen políticamente sin percatarse hacia movimientos políticos algorítmicamente intencionados. A golpe de clic, la IA podrá satisfacer sus necesidades académicas. La inteligencia debe servir al ser humano, no completar su intelecto. La falta de espíritu crítica y la ausencia de lectura son elementos propios de una sociedad lobomotizada. Se debe garantizar una transparencia en la selección de datos, una gobernanza digital que responda a una sociedad mejor, no a los designios nacionalistas o corporativistas que no responden a la verdad. Si la tecnología no se guía por una brújula ética, la verdad y la objetividad estarán condenadas a la deriva.
Antes de finalizar este artículo, muestro un último ejemplo. ¿Qué nación consideran clave en la geopolítica estos titanes de la IA generativa? Como podremos imaginar, cada uno de ellos argumenta y selecciona una información acorde a lo esperado; tienden a considerar a su nación creadora como la más poderosa. Omito la respuesta de ChatGPT al ser americana como su análoga liberal. Muestro la contraposición: EE. UU. VS China.
Como podemos observar, las IA norteamericanas afirman que EE. UU. es el país geopolíticamente más poderoso basándose en una serie de datos e información. China desmiente el argumentario de sus homólogas americanas con una selección de datos diferente. El dato, lejos de ser una unidad objetiva de información, se convierte en operador de una violencia epistémica cuando su selección oculta, margina o distorsiona otras formas de conocimiento (Floridi, 2013; Haraway, 1988)
Esta constatación obliga a repensar el estatuto epistémico de las respuestas generadas por IA. La llamada “falacia de autoridad algorítmica” (el supuesto de que la producción algorítmica es objetiva por defecto) refleja una estructura de poder epistémico en la que lo automatizado reemplaza a lo deliberado. En términos de Donna Haraway (1988), esta confianza ciega elude el carácter situado y parcial de todo conocimiento. En este contexto, resulta imperativo desarrollar una alfabetización algorítmica crítica, que no se limite al uso funcional de estas herramientas, sino que incorpore la capacidad de interrogar sus premisas, sus límites y sus sesgos constitutivos. Esa alfabetización debe ser un triunvirato que dependerá de la educación en el hogar, la ética corporativa y la buena fe de las instituciones.
Para ver más artículos de fondo publicados en esta web
REFERENCIAS BIBLIOGRÁFICAS
Alonso, F. H. Llano, & de Asís Roig, R. (2022). Inteligencia artificial y filosofía del derecho. Laborum.
Cañizares Sánchez, J. (s.f.). La inteligencia artificial vista desde la filosofía y la teología. Fronteras CTR.
Cotino Hueso, L. (2023). Qué concreta transparencia e información de algoritmos e inteligencia artificial es la debida. Revista Española De La Transparencia, (16), 17–63.
Floridi, L. (2013). The ethics of information. Oxford University Press.
Foucault, M. (1975). Surveiller et punir. Gallimard.
Foucault, M. (1976). La volonté de savoir. Gallimard.
Gorlla, C., & Tuttle, T. (2025). A feature-level approach to mitigating bias and censorship in DeepSeek-R1.
Han, B.-C. (2014). La sociedad de la transparencia. Herder.
Haraway, D. (1988). Situated knowledges: The science question in feminism and the privilege of partial perspective. Feminist Studies, 14(3), 575–599.
Heidegger, M. (1954). Die Frage nach der Technik. In Vorträge und Aufsätze. Neske.
Iglesias Granda, J. M. (2022). Shoshana Zuboff (2020). La era del capitalismo de la vigilancia: La lucha por un futuro humano frente a las nuevas fronteras del poder. Razón y Fe, 285(1457), 351–353. Recuperado de
Latour, B. (2005). Reassembling the social: An introduction to actor-network-theory. Oxford University Press.
Martín, M. G. D. (2024). Inteligencia artificial como arma en la guerra cognitiva: Estrategias y amenazas emergentes en el ciberespacio. Reports de inteligencia económica y relaciones internacionales, (18), 1–30.
O’Neil, C. (2016). Weapons of math destruction. Crown Publishing.
Paz Enrique, L. (2023). Argumentos de autoridad y falacias ad verecundiam: perspectivas en la construcción y socialización de la ciencia. Revista de Filosofía, 102.
Simondon, G. (1958). Du mode d’existence des objets techniques. Aubier.
About the author
