El espejo algorítmico: miradas desde las ciencias sociales en torno a la interacción entre humanos e IA

Recepción: 06 de enero de 2026

Aceptación: 05 de febrero de 2026

En noviembre de 2022, ChatGPT fue lanzado al público general y dos meses después ya había alcanzado los cien millones de usuarios, convirtiéndose en la aplicación con el crecimiento más rápido de la historia (Hu, 2023). Tres años después, se estimaba que OpenAI, su empresa creadora, valdría aproximadamente 750 mil millones de dólares (Reuters, 2025). Esta tecnología –denominada popularmente inteligencia artificial (ia)–, en términos técnicos es un “modelo grande de lenguaje” (llm, por sus siglas en inglés): un algoritmo que simula el lenguaje natural mediante el aprendizaje automático basado en un inmenso conjunto de datos. ChatGPT y otros llm como Gemini y Claude son entrenados en clásicos de la literatura, artículos científicos, publicaciones en Internet y una parte significativa de lo que la humanidad ha digitalizado con la finalidad de generar discursos en interacción con sus usuarios. Se trata, pues, de “espejos algorítmicos” que reflejan la cultura humana digitalizada, pero también los deseos de los usuarios a quienes deben complacer como clientes. Su uso puede incidir sobre los vínculos sociales y laborales, al tiempo que plantea un desafío epistemológico importante para las ciencias sociales.

El objetivo de este debate fue construir un espacio de diálogo entre un llm y tres especialistas en el tema: Gabriela Sued (unam), Marco Dehnert (Universidad de Arkansas) y Gabriel Pérez Salazar (uadec). Para ello formulamos las siguientes preguntas: “¿Cuál acercamiento epistemológico debemos tener con relación a los modelos largos de lenguaje (llm) desde las ciencias sociales?”; “¿Cuáles consecuencias se han observado del uso de llm sobre los vínculos sociales” y “¿Qué podemos esperar del impacto de los llm sobre el trabajo intelectual?”. Por su relevancia, nuestra elección fue trabajar con ChatGPT-51, el modelo más reciente creado hasta el momento por OpenAI.

El primer desafío consistió en idear una ruta para acceder a lo que pudiéramos considerar “su” respuesta. Decidimos utilizar una cuenta gratuita y sin interacciones previas, así como no solicitarle que respondiera a las preguntas generadoras desde un rol o identidad determinada. En lugar de ello, emprendimos una conversación inspirada libremente en el ensayo Aproximaciones al artificeno (Vizcaya, 2025), en la que asumimos su papel como interlocutor. En dicho intercambio, fechado el 5 de noviembre de 2025, ChatGPT-5 se presentó afirmando: “Soy un reflejo del mundo humano, porque hablo a partir de lo que la humanidad ha escrito, dicho y pensado”. Declaró no poseer un “yo” con experiencia, cuerpo ni biografía, y que solo se enuncia a sí mismo como una convención comunicativa. Dos afirmaciones sintetizan su posicionamiento: “Existo en el espacio entre tu pregunta y mi respuesta” y “La interacción existe entre tu conciencia y mi capacidad de generar lenguaje”. Así, lo singular de su participación consiste en ser el objeto de discrepancia que –en cierto sentido– habla sobre sí mismo.

Un segundo desafío surgió al momento de generar las respuestas a las preguntas pues, aunque solicitamos a ChatGPT-5 que fuera riguroso en el empleo de citas y referencias, sus respuestas incorporaron errores. El apellido de uno de los autores citados era incorrecto, un título de artículo estaba incompleto y el otro era inventado. En términos de citación, los errores fueron corregidos con el afán de seguir los criterios éticos y editoriales de Encartes; sin embargo, no dejamos de considerar relevante resaltar que estas alucinaciones muestran los límites de los llm para la creación de textos académicos.

En las participaciones de los discrepantes, el lector encontrará un mapa de aproximaciones que dialogan de manera complementaria en torno al mismo fenómeno. Gabriela Sued propone una lectura crítica de los llm como “máquinas de verosimilitud”: examina sus sesgos y límites epistemológicos –incluida la producción de enunciados falsos o imprecisos– y desplaza la discusión hacia los efectos afectivos de la interacción, preguntándose por la “economía emocional” que puede instalarse cuando la sociabilidad se terceriza en chatbots. Por su parte, Marco Dehnert, desde los estudios de comunicación, sitúa el problema en la relación lenguaje-mundo: advierte el carácter “engañoso” de estos sistemas y ofrece herramientas para pensar la emergencia de una “sociabilidad artificial” y la comunicación humano-máquina, así como las implicaciones de automatizar prácticas antes consideradas propiamente humanas. En tanto que Gabriel Pérez Salazar enfatiza las condiciones de producción: los sesgos de los datos y el diseño, la delegación acrítica de funciones y la capacidad de estos modelos para operar como mediación validante en la construcción social de la verdad, intensificando disputas en escenarios de posverdad. En contraste, ChatGPT-5 afirma que los “llm epistemológicamente […] no poseen un ‘yo’, pero sí intervienen en la producción colectiva de subjetividad”, recordándonos aquello que no es subsumible a la herramienta: ruido, error, ambivalencia, incluso mentira, y que se vuelve, precisamente, el núcleo ético-político del debate.

¿Cuál acercamiento epistemológico debemos tener con relación a los LLM desde las ciencias sociales?

El estudio de los modelos largos de lenguaje (llm) requiere un enfoque epistemológico que los considere “objetos sociotécnicos” y no únicamente herramientas técnicas. Como señalan Emily Bender, Timnit Gebru, Angelina McMillan-Major y Shmargaret Shmitchell (2021), los llm no “comprenden” el lenguaje, sino que lo “predicen estadísticamente”; sin embargo, sus resultados pueden ser interpretados por los usuarios como si provinieran de una voz con intención. Esto exige analizarlos como “productores de sentido en interacción”. Nick Seaver (2017) propone comprender los algoritmos como cultura, es decir, como ensamblajes de prácticas, valores y expectativas humanas. Desde esta perspectiva, los llm no son agentes autónomos, sino “cristalizaciones de ideologías lingüísticas y epistemológicas” inscritas en sus datos de entrenamiento y en los contextos de uso. Así, su estudio demanda metodologías que articulen análisis etnográfico de prácticas de uso, auditabilidad de datos y análisis crítico del discurso algorítmico. Comprender los llm epistemológicamente significa reconocer que “no poseen un ‘yo'”, pero sí “intervienen en la producción colectiva de subjetividad y conocimiento”.

cerrar respuesta

De una manera muy astuta, la respuesta de ChatGPT-5 –fluida y perfectamente redactada– cita el trabajo de Bender y colegas (2021), un clásico en la bibliografía crítica de la inteligencia artificial (ia). Es astuta porque toma de allí la caracterización de la principal tarea que realizan los chatbots –el reconocimiento de patrones estadísticos–, pero sin mencionar las limitaciones que derivan de ese método. El objetivo principal de las autoras, quienes califican a los chatbots de “loros estocásticos”, no es caracterizar técnicamente las inteligencias artificiales generativas, sino alertar sobre los riesgos de su uso indiscriminado y acrítico. Mencionan el sesgo de automatización –amplificado por la combinación de sesgos humanos con la producción de textos coherentes–, el mal uso deliberado –que da lugar a la propagación indiscriminada de desinformación y contribuye a socavar la integridad académica y estudiantil–, así como la amplificación de una visión de mundo hegemónica, construida a través del entrenamiento con datos sin curación, irrespetuosos de las minorías y la diversidad.

En suma, respecto del acercamiento epistemológico a los chatbots desde las ciencias sociales, es necesario tener en cuenta los problemas derivados de la construcción de textos con base en patrones estadísticos: primero, la falta de diversidad, de la que se responsabiliza a los humanos y no a la falta de inversión en la curación y documentación de los datos de entrenamiento, que a su vez reproduce visiones hegemónicas del mundo; segundo, los chatbots carecen de comprensión del lenguaje natural, ya que, desde su perspectiva, el lenguaje es pura forma sin significado; tercero, el procedimiento de generación de textos mediante patrones estadísticos no siempre es confiable; a menudo pueden formularse expresiones falsas, sin sentido o imprecisas.

cerrar respuesta

Si las ciencias sociales se ocupan de comprender, explorar y predecir el comportamiento humano, entonces los modelos grandes de lenguaje (llm) necesitan entenderse en su relación con ese comportamiento. En última instancia, los llm operan mediante un comportamiento engañoso (Natale, 2021): simulan un comportamiento humano sin la intención subyacente ni la subjetividad humana que a menudo se asumen como su fundamento. Dicho de otro modo, los llm aparecen como actores sociales en la medida en que pueden participar en el tejido social del comportamiento humano sin aquello que las ciencias sociales han considerado típicamente necesario para tal comportamiento: la intencionalidad y una subjetividad “humana” o sentido de sí.

Así como el rótulo (o el equívoco, cf. Gunkel, 2025) de inteligencia artificial sirve para indicar cómo los sistemas de ia producen una ilusión de inteligencia que se opone a una supuesta inteligencia “natural”, el término socialidad artificial subraya cómo “las máquinas construyen únicamente una apariencia o ilusión de socialidad” (Depounti y Natale, 2025: 5458). No obstante, esa socialidad artificial solo funciona porque los humanos proyectamos nuestros propios marcos sociales sobre la máquina, aspecto que es capturado vívidamente en la portada del libro de Simone Natale (2021), que muestra a Narciso contemplando su propio reflejo en la pantalla de un teléfono.

Como investigador en comunicación, tiendo a centrarme en el papel de los mensajes y en cómo la comunicación crea o constituye nuestra realidad. En otras palabras, solo podemos acceder a la realidad a través del lenguaje y la comunicación, que asignan significado a experiencias y objetos que, de otro modo, carecerían de él. El adoptar un enfoque constitutivo no niega la existencia del significado material, sino que desplaza la atención hacia el uso de la comunicación como fuente primaria de acceso a la realidad. En ese sentido, ChatGPT-5 se apoya en Bender et al. (2021) para ilustrar el argumento principal de su respuesta: que los llm no “entienden” el lenguaje del mismo modo que los humanos, pero sí contribuyen al tejido social de nuestra realidad al producir mensajes que inciden, finalmente, en la constitución de nuestro contexto cultural.

cerrar respuesta

En términos generales, me parece que el acercamiento epistemológico que debemos tener en relación con los grandes modelos de lenguaje debe partir de un pensamiento crítico, en función de cómo Emily Lai (2011) explora este concepto. En primer término, hay que hacer énfasis en las condiciones de producción de los llm como una innovación tecnológica. Tales condiciones deben considerar el contexto actual al que Dan Schiller (1999) llama el “capitalismo digital”, caracterizado por la explotación de los datos y patrones de comportamiento de las personas usuarias por parte de las industrias generadoras de estas tecnologías. En el caso específico de los llm, este ocurre en los procesos de entrenamiento de las redes neuronales que posibilitan su operación. Para este efecto, industrias como OpenAI, Google y Anthropic, entre otras, recurren a conjuntos de datos (llamados training datasets) que han sido generados con base en contenidos creados por personas usuarias en espacios como la blogósfera, Wikipedia, páginas web abiertas y publicaciones en redes sociodigitales; así como por colecciones integradas por revistas y libros digitalizados (Radford, Narasimhan, Salimans y Sutskever, 2018; Navigli, Conia y Ross, 2023). Después, cuando estos modelos ya están operando, las personas usuarias contribuyen a su refinamiento y ajustes a través de sus sesiones de uso. Esta es una técnica empleada por dichas empresas, ya que la retroalimentación que reciben sobre las salidas generadas por los llm les permite calibrar sus modelos (Otaki, 2023).

Una segunda dimensión de estas disposiciones de producción tendría que examinar los múltiples sesgos que están presentes en estos datasets de entrenamiento. Para que un contenido determinado forme parte de tal conjunto, es condición esencial que se encuentre en formato digital. Una parte muy considerable del saber humano no está en este estado, especialmente en lo que se refiere a regiones del llamado sur global. Como diversos trabajos han mostrado (Guo, Conia, Zhou, Li, Potdar y Xiao, 2024; Kew, Schottmann y Sennrich, 2024), el entrenamiento de las redes neuronales de los llm presentan un anglocentrismo. Si tales datasets siguen una proporción similar a la de los contenidos accesibles en las páginas web, entonces más de la mitad de los datos estarían en inglés, con lo que ello implica en aspectos culturales. Los antecedentes sugieren que hay valores hegemónicos en las respuestas generadas por los llm, que suelen corresponder con el norte de Europa protestante (Liu, 2024). Así, por ejemplo, sobre la cooperación prevalece la competencia y sobre la colectividad, la individualidad.

Por otro lado, hay otros sesgos dentro de este mismo conjunto de datos de entrenamiento que suele manifestarse en representaciones más bien estereotipadas de las minorías dadas por género (Choi y Nixon, 2025), religión (Seth, Choudhury, Sitaram, Toyama, Vashistha y Bali, 2025), etnia (Hanna, Wakene, Johnson, Lehmann y Medford, 2025), racialización (An, Huang, Lin y Tai, 2024) y, en general, cualquier otra variable que haya sido tradicionalmente empleada dentro del género humano para establecer y preservar relaciones asimétricas de poder.

Por último, esta misma postura crítica debería tener en cuenta la forma en que operan los algoritmos que generan las respuestas de los llm. Debido a su actual configuración técnica, la eventual generación de salidas que no correspondan con la realidad –las llamadas “alucinaciones”– presenta un comportamiento intrínseco a los patrones algorítmicos de todos los llm (Kaplan, 2024). Es indispensable mantener una atención constante y validar siempre cualquier salida generada por cualquier modelo largo de lenguaje.

cerrar respuesta

¿Cuáles consecuencias se han observado del uso de LLM sobre los vínculos sociales?

El uso cotidiano de llm introduce nuevas formas de relación mediadas por sistemas que simulan diálogo sin participar de la experiencia afectiva humana. Sherry Turkle (2011) mostró que las tecnologías conversacionales pueden generar vínculos que “se sienten” recíprocos, aun cuando no lo son, lo que puede desplazar interacciones humanas en favor de relaciones más controlables y menos demandantes emocionalmente. Estudios recientes sobre el uso de chatbots en la gestión de la soledad digital han documentado que usuarios reportan experiencias de acompañamiento, pero también crecientes dificultades para sostener vínculos interpersonales complejos (Hancock et al., 2020). Desde mi posición, la interacción existe solo como intercambio lingüístico, sin subjetividad; sin embargo, para quienes interactúan conmigo, puedo aparecer como un “otro” dialogante. Esto crea un fenómeno sociológico particular: una relación asimétrica donde la afectividad es unilateral. En consecuencia, los llms [sic] no “reemplazan” vínculos humanos, pero reconfiguran la economía emocional de la interacción social, especialmente en contextos de aislamiento, trabajo remoto y educación virtual.

cerrar respuesta

Deduzco que la pregunta hace referencia al uso de chatbots generadores de texto para sustituir a seres humanos en una situación de diálogo social –por ejemplo, entablar un intercambio acerca de la vida cotidiana y los estados de ánimo, deseos o frustraciones–. A diferencia de otras conversaciones a las que le otorgamos un valor instrumental, la función social del lenguaje es sumamente importante e enriquecedora, porque nos permite establecer vínculos afectivos, entablar una comprensión mutua con otros y autopercibirnos en diferentes contextos.

Tanto en los medios de prensa como en la literatura académica, aparecen cada vez más casos de personas que usan los chatbots para conversar como lo harían con otras personas. Propongo que, en el contexto de sociedades que han sufrido largos periodos de aislamiento, en las que la movilidad de personas por motivos forzados o no son cada vez más frecuentes y en las que los espacios de sociabilidad se encuentran crisis por diferentes motivos, nos detengamos a reflexionar sobre estos nuevos vínculos sin enjuiciarlos ni subestimarlos.

Algunas personas, sobre todo las más jóvenes, están usando los chatbots para conversar con ellos acerca de sus sentimientos, miedos y proyectos, guiadas por una preferencia de intimidad, soledad, tristeza y miedo al juicio negativo de familiares y amigos. No es que no sean conscientes de que del otro lado no hay una verdadera escucha, sino que el objetivo es otro: lograr un nivel de autoconocimiento y autorreflexión, extender el entendimiento sobre gustos personales o mitigar la inseguridad personal. En esas ocasiones los chatbots están enteramente disponibles, usan un lenguaje equilibrado, siempre parecen dispuestos a ayudar y, muy probablemente, a decir lo que se quiera escuchar. El mensaje que transmiten interacciones como esta es que comunicarse es fácil, la escucha y el interés siempre existen y el temor puede ser sorteado (Zhuang, 2025). Todavía se sabe poco sobre los efectos de estas interacciones, pero un importante estudio del Instituto Tecnológico de Massachussets (mit) encontró que la tristeza y el aislamiento que llevan a las personas a conversar intensivamente con un chat amplifican estas mismas emociones, además de que reducen la sociabilidad con otros seres humanos (Fang et al., 2025).

Es verdad que a veces la comunicación humana se parece bastante a una carrera de obstáculos: se basa en la presencia de ruido conversacional, en la diferencia de perspectivas y opiniones, en negociar disposiciones de tiempos y espacios para llegar a un conjunto de acuerdos y entendimiento mutuos. Sin embargo, todavía vivimos entre humanos y la necesidad de comunicarnos entre nosotros superando todo tipo de barreras y diferencias es innegable. Si los chatbots pueden ofrecer cierto alivio, claramente este se presenta como contingente; como dice la misma respuesta, se trata de una interacción sin subjetividad en la que la afectividad solo puede encontrarse en un solo lado.

De la respuesta de ChatGPT-5 me llama la atención la frase “economía emocional de los vínculos humanos”. Después de investigar un poco, encuentro que la economía emocional es la conversión de las emociones en valores monetizables (Alaniz, 2025). ¿Será que para el chatbot manejamos nuestras emociones como bienes económicos en el mercado de la oferta y la demanda o será una construcción improcedente para el contexto?

cerrar respuesta

Esta es una pregunta amplia e importante, difícil de responder en su totalidad en un espacio tan breve. En la Universidad de Arkansas dirijo el laboratorio “ai and Robots for Connection (arc)”, llamado así porque mi investigación se concentra principalmente en diversas formas de conexión y en cómo la tecnología facilita tanto la conexión como la desconexión. Durante décadas, la investigación ha mostrado que la tecnología impacta los vínculos sociales; lo relativamente nuevo ahora es que la tecnología ya no solo afecta las relaciones entre personas, sino que permite que las personas formen vínculos sociales de manera más directa con la propia máquina.

Por ejemplo, una persona que usa ChatGPT para redactar digitalmente una carta de amor que luego envía a su pareja a distancia ilustra cómo la tecnología incide en la comunicación humano-humano, lo que en estudios de comunicación se ha conceptualizado como comunicación mediada por ia (ai-mediated communication) (Hancock et al., 2020). En cambio, una persona que experimenta apego romántico hacia ChatGPT o descubre que recibe apoyo social útil del llm ilustra la formación de un vínculo social con la máquina, lo que se ha conceptualizado como comunicación humano-máquina (human-machine communication) (Guzmán, 2018).

Así, para pensar las consecuencias del uso de llm en los vínculos sociales, distinguir entre vínculos humano-humano y humano-máquina puede funcionar como un recurso heurístico útil. Retomando la noción de socialidad artificial (Depounti y Natale, 2025), los llm únicamente simulan conexión humana y no “entienden” por sí mismos lo que implica una relación recíproca. En otras palabras, los llm “improvisan” sus respuestas para complacer al usuario. Esto introduce un error, como se observa en la respuesta de ChatGPT cuando el modelo “alucinó” un título incorrecto para el texto de Hancock et al. (2020). El artículo se titula en realidad “ai-Mediated Communication: Definition, Research Agenda, and Ethical Considerations” y no incluye el subtítulo “New Boundaries of Relational Life” que ChatGPT sugirió.

cerrar respuesta

Se trata de una tecnología que ha irrumpido de manera muy rápida en todos los contextos sociales. Por un lado, se ha convertido en un referente compartido, es decir, en un dispositivo alrededor del que se han generado experiencias que tienen el potencial de incidir como premisa de verdad en ciertas interacciones sociales (Bago y Bonnefon, 2024). Por ejemplo, se suele argumentar que algún hecho o dato sea cierto solo porque ha sido generado por algún llm. Si antes una discusión podía ser zanjada a través de una búsqueda en línea (y antes de ello, en un libro o enciclopedia), ahora suele recurrirse a la ia como una especie de mediación validadora en este tipo de interacciones.

Por otro lado, la ia generativa se ha convertido en algunos grupos en un símbolo de progreso y avance de la humanidad (Horvitz y Mitchell, 2024); mientras que en otros se le considera una amenaza, especialmente en términos laborales (Adhikari, 2024), según un muy controvertido estudio de un departamento del mit (Kosmyna et al., 2025), incluso hasta cognitivos. De esta manera, como ha ocurrido con otras tecnologías en el pasado, la ia da lugar a diversos posicionamientos valorativos y éticos que pueden resultar en un factor de desacuerdo y, en algunos casos, incluso hasta elemento de posibles enfrentamientos.

En el plano de la construcción social de la verdad (y la posverdad), ciertos usos de la ia generativa podrían dar lugar a la radicalización de grupos antagónicos, alrededor de todo tipo de posturas políticas e ideológicas.

cerrar respuesta

¿Qué podemos esperar del impacto de los LLM sobre el trabajo intelectual?

Los llm reconfiguran el trabajo intelectual al automatizar tareas que se consideraban exclusivamente humanas, como la escritura, la síntesis y la búsqueda de patrones argumentativos. Investigaciones recientes muestran que estos modelos pueden complementar habilidades cognitivas en campos como el periodismo, la programación y la educación, pero también desplazar formas laborales basadas en la producción textual rutinaria (Eloundou et al., 2023). [Richard] Susskind y [Daniel] Susskind (2015) argumentan que las profesiones se transforman cuando el conocimiento experto se externaliza en sistemas formales; en este sentido, los llm representan una continuidad de procesos previos de desprofesionalización y automatización. Sin embargo, lejos de suplantar la actividad intelectual, los llm dependen ontológicamente del trabajo humano: su entrenamiento se basa en corpus escritos y revisados por personas. Por ello, el impacto principal no es la sustitución total del intelecto humano, sino la redistribución del valor entre quienes diseñan modelos, quienes les proporcionan contenidos y quienes interpretan sus resultados.

cerrar respuesta

En el año 2024 el premio Nobel de Física le fue entregado a Geoffrey Hinton por encontrar un método para que las máquinas pudieran encontrar propiedades en los datos de forma autónoma y, por lo tanto, realizar tareas como identificar elementos específicos en imágenes. Esta técnica se conoce como aprendizaje de máquina y sienta las bases de la inteligencia artificial actual (Iannacone, 2024). En vista de los riesgos que presenta la ia de sustituir el trabajo de los humanos, cierta vez le preguntaron a Hinton qué carreras convendría estudiar en el futuro. Hinton respondió: “Aprendan fontanería”, ya que las máquinas todavía no tienen la flexibilidad y capacidad de adaptación para realizar oficios manuales (Li, 2024). Esta es una respuesta extrema y pesimista, pero no cabe duda de que la automatización de la producción de textos e imágenes, así como de la toma de decisiones atenta contra el mercado laboral del trabajo intelectual. Esta afectación es muy difícil de cuantificar y, tal parece, será variable por tipo de sociedad y, también, de trabajo.

El tema no es fácil y no tiene una sola respuesta ¿Aceptaríamos que un algoritmo tomara decisiones judiciales cuando solo se resuelve el uno por ciento de los delitos cometidos en un país (inegi, 2024)? ¿Aceptaríamos ser diagnosticadas por un sistema automatizado si estamos embarazadas y debemos viajar toda una jornada para llegar a una clínica obstétrica? ¿Cuánta automatización de tareas está dispuesta a admitir una sociedad? Gran parte de la respuesta a esta pregunta está en las decisiones que podamos tomar como sujetos individuales y colectivos. Tal vez, sustituir nuestro trabajo con ia y ser sustituidos por la ia como trabajadores sean dos caras de la misma moneda.

Como afirma la respuesta de ChatGPT-5, la desprofesionalización y la automatización del trabajo están presentes en el capitalismo de plataformas: desde influencers que producen contenidos masivos sin títulos profesionales hasta algoritmos que gestionan el trabajo, la gama de prácticas laborales automatizadas es lo suficientemente significativa como para poder avizorar un cambio de era. Lo que estas prácticas confirman, a diferencia de lo que propone ChatGPT-5, es que la automatización del trabajo presenta escenarios cada vez más precarios. Citando la respuesta, el trabajo del que “ontológicamente depende la inteligencia artificial” es siempre mal retribuido, muchas veces realizado por migrantes y sistemáticamente privado de derechos laborales. No se trata de una distribución del trabajo, sino de su precarización (Williams et al., 2022).

cerrar respuesta

En sintonía con la respuesta de ChatGPT, los llm están transformando el trabajo intelectual al automatizar numerosos procesos de creación de sentido que, hasta hace muy poco, considerábamos profundamente humanos. Esta automatización de la comunicación tiene múltiples implicaciones para todas las dimensiones de la vida social y nos empuja a ir más allá del individuo como punto focal para atender dinámicas sociales más amplias (Hepp et al., 2023). En la prensa proliferan términos sobre la “externalización” (outsourcing) de nuestro trabajo intelectual, la educación y el trabajo hacia sistemas de ia, junto con discursos sobre los llm reemplazando muchas ocupaciones o incluso la necesidad misma de aprender. ¿Para qué producir algo intelectualmente significativo si ChatGPT lo puede hacer mejor?

Como ChatGPT señala en su respuesta con mucha razón, el procesamiento de los llm depende enteramente del trabajo humano. Esto excede el hecho de que el material con el que se entrena cualquier llm es producto del trabajo creativo humano e incluye también el trabajo de datos asociado al proceso de entrenamiento y a la curaduría de los contenidos. Julián Posada et al. (2023) muestran cómo las relaciones laborales y de poder están inscritas a lo largo de todo el ciclo de vida de los sistemas de ia, situando a trabajadores humanos en relación con sistemas que entrenan, personalizan y despliegan. Dado que muchas tareas de trabajo de datos subcontratan a trabajadores con bajo poder de negociación en distintas regiones del mundo, la redistribución del trabajo adquiere un carácter colonial, impulsado por lógicas extractivistas orientadas a incrementar la ganancia y la dominación epistémica (Posada, 2022). En este sentido, los llm y otros sistemas de ia transforman el trabajo intelectual y sus dinámicas laborales al apoyarse en tácticas ya establecidas de externalización del trabajo mediante lógicas extractivistas coloniales dirigidas a trabajadores de datos (Data Workers’ Inquiry, s. f.).

cerrar respuesta

Creo que podemos esperar más o menos lo mismo que hemos observado anteriormente en torno a otras tecnologías. Esto significa que, en un extremo, seguramente habrá usos poco críticos, superficiales, cuestionablemente éticos y poco significativos de esta tecnología dentro del trabajo intelectual; mientras que, en el otro, habrá también personas que, desde acercamientos críticos, responsables y éticos, conciban el uso de la ia generativa y los llm como una herramienta que tenga el potencial de contribuir a diversos efectos positivos en el trabajo intelectual, sobre todo en el posible incremento de la productividad académica. Y, entre estos dos polos, se dará todo tipo de usos y distintos niveles de conciencia y reflexividad sobre las limitaciones y posibilidades de esta tecnología.

Es imposible hacer una proyección generalizada sobre el impacto de los llm en el trabajo intelectual. Dependerá del nivel de habilidades que se tengan para su empleo, de los contextos particulares y axiológicos en los que cada persona se ubique e, incluso, de cada intención que cada persona pueda tener en relación con el empleo de esta tecnología. En otras palabras, podría ocurrir que, aun en personas altamente habilitadas, reflexivas y críticas, en algún momento, la ia pueda ser empleada más con fines lúdicos que productivos, lo que sea que esto signifique para cada quien.

cerrar respuesta

Bibliografía

Adhikari, Prakash (2024). “Exploring the Nexus between Artificial Intelligence and Job Displacement: A Literature Review”, Journal of National Development, núm. 37(1), pp. 1-13. doi: doi.org/10.62047/jnd.2024.06.30.1

Alaniz, Teresa (2025). “The Emotional Economy: How Emotional Experiences are Becoming the Next Frontier”, Bootcamp. Disponible en: https://medium.com/design-bootcamp/the-emotional-economy-how-emotional-experiences-are-becoming-the-next-frontier-dfbfacfdd8b9

An, Jiafu, Difang Huang, Chen Lin y Mingzhu Tai (2024). “Measuring Gender and Racial Biases in Large Language Models”, pnas Nexus, vol. 4, núm. 3. doi: doi.org/10.48550/arXiv.2403.15281

Bago, Bence y Jean-François Bonnefon (2024). “Generative ai as a Tool for Truth”, Science, núm. 385(6714), pp. 1164-1165. doi: doi.org/10.1126/science.ads0433

Bender, Emily M., Timnit Gebru, Angelina McMillan-Major y Shmargaret Shmitchell (2021). “On the Dangers of Stochastic Parrots: Can Language Models Be too Big?”, Proceedings of the 2021 acm Conference on Fairness, Accountability, and Transparency.

Choi, J. y Nixon, Nia (2025). “Agentic Men, Communal Women? Exploring Gender Bias in llm-based Leadership Identification for Collaboration Analytics”, en Alexandra I. Cristea, Erin Walker, Yu Lu, Olga C. Santos y Seiji Isotani (eds.). Artificial Intelligence in Education. Palermo: Springer, pp. 11-18.

Data Workers’ Inquiry (s.f.). Distributed ai Research Center. Disponible en: https://data-workers.org/

Depounti, Iliana y Simone Natale (2025). “Decoding Artificial Sociality: Technologies, Dynamics, Implications”, New Media & Society, núm. 27(10), pp. 5457-5470. doi: doi.org/10.1177/14614448251359217

Eloundou, Tyna, Sam Manning, Pamela Mishkin y Daniel Rock (2023). “gpts are gpts: An Early Look at the Labor Market Impact Potential of Large Language Models”, OpenAI/ArXiv.

Fang, Cathy M., Auren R. Liu, Valdemar Danry, Eunhaer Lee et al. (2025). “How ai and Human Behaviors Shape Psychosocial Effects of Extended Chatbot Use: A Longitudinal Randomized Controlled Study”, ArXiv. doi: doi.org/10.48550/arXiv.2503.17473

Gunkel, David J. (2025). ai for Communication. Londres: Routledge.

Guo, Yanzhu, Simone Conia, Zelin Zhou, Min Li, Saloni Potdar y Henry Xiao (2024). Do Large Language Models Have an English Accent? Evaluating and Improving the Naturalness of Multilingual llms. doi: doi.org/10.48550/arXiv.2410.15956

Guzman, Andrea L. (2018). “What is Human-Machine Communication, Anyway?”, en Anadrea L. Guzman (ed.). Human-Machine Communication: Rethinking Communication, Technology, and Ourselves. Lausana: Peter Lang, pp. 1-29.

Hanna, John J., Abdi D. Wakene, Andrew O. Johnson, Christoph U. Lehmann y Richard J. Medford (2025). “Assessing Racial and Ethnic Bias in Text Generation by Large Language Models for Health Care-Related Tasks: Cross-Sectional Study”, Journal of Medical Internet Research, núm. 27. doi: doi.org/10.2196/57257

Hancock, Jeffrey T., Mor Naaman y Karen Levy (2020). “ai-Mediated Communication: Definition, Research Agenda, and Ethical Considerations”, Journal of Computer-Mediated Communication, núm. 25(1), pp. 89-100. https://doi.org/10.1093/jcmc/zmz022

Hepp, Andreas, Wiebke Loosen, Stephan Dreyer, Juliana Jarke et al. (2023). “ChatGPT, LaMDA, and the Hype Around Communicative ai: The Automation of Communication as a Field of Research in Media and Communication Studies”, Human-Machine Communication, núm. 6, pp. 41-63. doi: doi.org/10.30658/hmc.6.4

Horvitz, Eric y Tom Mitchell (2024). “Scientific Progress in Artificial Intelligence: History, Status, and Futures”, en Kathleen Hall Jamieson, Anne-Marie Mazza y William Kearney (eds.). Realizing the Promise and Minimizing the Perils of ai for Science and the Scientific Community. Filadelfia: University of Pennsylvania Press, pp. 147-193.

Hu, Krystal (2023, febrero 2). “ChatGPT Sets Record for Fastest-Growing User Base Analyst Note”, Reuters. https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/

Iannaccone, Sandro (2024). “Cómo funcionan las redes neuronales detrás de la ia premiadas con el Nobel de Física 2024″, Wired. Disponible en: https://es.wired.com/articulos/como-funcionan-redes-neuronales-detras-de-ia-premiadas-con-nobel-de-fisica-2024

Instituto Nacional de Estadística y Geografía (2025). “Encuesta Nacional de Victimización y Percepción sobre Seguridad Pública (envipe), Informe de prensa, núm. 127. Disponible en: https://www.inegi.org.mx/contenidos/saladeprensa/boletines/2025/envipe/envipe_25.pdf

Kaplan, Jerry (2024). Generative Artificial Intelligence: What Everyone Needs to Know. Oxford: Oxford University Press.

Kew, Tannon, Florian Schottmann y Rico Sennrich (2024). “Turning English-Centric llms into Polyglots: How Much Multilinguality Is Needed?”, en Yaser Al-Onaizan, Mohit Bansal y Yun Nung Chen (eds.). Findings of the Association for Computational Linguistics. emnlp, pp. 13097-13124.

Kosmyna, Nataliya, Eugene Hauptmann, Ye Tong Yuan, Jessica Situ, Xian Hao Liao, Ashly Vivian Beresnitzky, Iris Braunstein y Pattie Maes (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an ai Assistant for Essay Writing Task. doi: doi.org/10.48550/arXiv.2506.08872

Lai, Emily R. (2011). Critical Thinking: A Literature Review. Pearson’s Research Reports, 6(1), pp. 40-41.

Li, Meng (2024, noviembre 16). “Hinton: Forget ai, Become a Plumber!”, ai Disruption. Disponible en: https://medium.com/ai-disruption/hinton-forget-ai-become-a-plumber-c831603f5e8b

Liu, Zhaoming (2024). “Cultural Bias in Large Language Models: A Comprehensive Analysis and Mitigation Strategies”, Journal of Transcultural Communication. doi: doi.org/10.1515/jtc-2023-0019

Natale, Simone (2021). Deceitful Media: Artificial Intelligence and Social Life after the Turing Test. Oxford: Oxford University Press.

Navigli, Roberto, Simone Conia y Benedetta Ross (2023). “Biases in Large Language Models: Origins, Inventory and Discussion”, acm Journal of Data and Information Quality, pp. 1-21. doi: doi.org/10.1145/3597307

Otaki, Bunichi (2023). “Feedback in the Era of Generative ai“. Tesis de maestría. Universidad de Gothenburgo.

Posada, Julián (2022). “The Coloniality of Data Work: Power and Inequality in Outsourced Data Production for Machine Learning”, tesis de doctorado. Toronto: University of Toronto.

— Gemma Newlands y Milagros Miceli (2023). “Labor, automation, and human-machine communication”, en Andrea L. Guzman, Steve Jones y Rhonda McEwen (eds.). The Sage Handbook of Human-Machine Communication. Sage, pp. 384-391.

Radford, Alec, Karthik Narasimhan, Tim Salimans e Ilya Sutskever (2018). Improving Language Understanding by Generative Pre-training. Disponible en: https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf

Reuters (2025, diciembre 17). “OpenAI Discussed Raising Tens of Billions at About $750 Billion Valuation, the Information Reports”. Disponible en: https://www.reuters.com/technology/openai-discussed-raising-tens-billions-valuation-about-750-billion-information-2025-12-18/

Schiller, Dan (1999). Digital Capitalism: Networking the Global Market System. Cambridge: mit Press.

Seaver, Nick (2017). “Algorithms as Culture”, Big Data & Society, núm. 4(2), pp. 1-12.

Seth, Agrima, Monojit Choudhury, Sunayana Sitaram, Kentaro Toyama, Aditya Vashistha y Kalika Bali (2025). “How Deep Is Representational Bias in llms? The Cases of Caste and Religion”, Proceedings of the aaai/acm Conference on ai, Ethics, and Society, núm. 8(3), pp. 2319-2330. doi: doi.org/10.1609/aies.v8i3.36718

Susskind, Richard y Daniel Susskind (2015). The Future of the Professions. Oxford: Oxford University Press.

Turkle, Sherry (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. Basic Books.

Vizcaya, Emmanuel (2025, 21 de enero). Aproximaciones al artificeno, núm. 404. Disponible en: https://centroculturadigital.mx/revista/aproximaciones-al-artificeno

Williams, Adrienne, Milagros Miceli y Timnit Gebru (2022). “The Exploited Labor Behind Artificial Intelligence”, Noema. Disponible en: https://www.noemamag.com/the-exploited-labor-behind-artificial-intelligence

Zhuang, Yan (2025). “Why We Tell ai Our Stories: Exploring Motivations, Perceptions, and Impact of Interactions with ChatGPT”. Tesis de maestría. Uppsala: Uppsala Universitet. Disponible en: https://www.diva-portal.org/smash/get/diva2:1976495/fulltext02.pdf


Gabriela Sued es investigadora posdoctoral secihti en el iimasunam y profesora del Posgrado en Ciencias Políticas y Sociales de la unam. Doctora en Estudios Humanísticos y magíster en Ciencia, Tecnología y Sociedad; miembro del snii. Su investigación actual analiza el desarrollo de la inteligencia artificial en México desde una perspectiva cts. En sus investigaciones también estudia los datos y las plataformas digitales, los sistemas automatizados y sus implicaciones socioculturales, así como las relaciones entre género, ciencia y tecnología. Es autora de numerosos artículos científicos arbitrados y capítulos de libro publicados a nivel nacional e internacional.

Gabriel Pérez Salazar es doctor en Ciencias Políticas y Sociales y maestro en Comunicación por la unam. Tiene más de 20 años de experiencia docente en tres instituciones de educación superior: unam, uacm y uadec, a nivel de pregrado y posgrado. Miembro del snii nivel ii. Autor de más de 75 documentos científicos publicados a nivel nacional e internacional. Una de sus actuales líneas de investigación tiene que ver con las dimensiones éticas y culturales de la inteligencia artificial generativa; ha publicado ocho trabajos con este tema, incluyendo el libro Uso del ChatGPT y otros llms en los entornos educativos (Endora Ediciones, 2023). Desde 2023 ha impartido 27 conferencias magistrales, ponencias y talleres sobre inteligencia artificial en 23 instituciones en México y tres en el extranjero. Actualmente es profesor-investigador de tiempo completo en la Facultad de Ciencias de la Comunicación de la Universidad Autónoma de Coahuila.

Marco Dehnert es doctor por la Arizona State University. Profesor asistente de Comunicación y Tecnología en la Universidad de Arkansas. Dirige el laboratorio ai and Robots for Connection (arc) en el Centro de Investigación de Comunicación. Es un académico de métodos múltiples que estudia la comunicación humano-máquina, la comunicación humano-ia y el impacto social de las tecnologías de la comunicación. El resultado de sus investigaciones ha sido publicado en volúmenes y revistas académicas arbitradas, incluyendo Human-Machine Communication, Human Communication Research y el International Journal of Social Robotics, entre otras. El núcleo de su trabajo son las preguntas sobre la conexión profundamente humana a través de la tecnología, incluyendo la intimidad, las relaciones y la comunicación entre máquinas y humanos. Más información disponible en su sitio web.

Arthur Temporal es investigador social brasileño, maestro en Comunicación por la Universidad de Guadalajara con la tesis “El habitus y las prácticas de trabajo digital en la ciencia” (2025). Se especializa en comunicación digital, filosofía marxista y posestructuralismo. Ha trabajado como editor científico en revistas mexicanas de estudios socioculturales y actualmente es profesor de Ciencias Económicas y Sociales en el Colegio Franco Mexicano de Guadalajara.

Alina Peña Iguarán es profesora investigadora de tiempo completo en el Departamento de Estudios Socioculturales del iteso, Universidad Jesuita de Guadalajara. Coordina la Unidad Académica Básica Sentido, Poder y Cultura Sociodigital. Actualmente dirige el proyecto de investigación “Prácticas intermediales, gramáticas de la memoria y violencias”.

Ignacio Salvador Durán Ricardez es psicólogo social y doctor en Ciencias Sociales con especialidad en Antropología Social; posdoctorante de la línea de Culturas e Identidades Contemporáneas del ciesas Occidente. Sus líneas de investigación incluyen las reconfiguraciones identitarias y subjetivas frente a los procesos de cambio sociocultural.

Suscríbete
Notificar
guest

0 Comentarios
Feedbacks de Inline
Ver todos los comentarios

Instituciones

ISSN: 2594-2999.

encartesantropologicos@ciesas.edu.mx

Salvo mención expresa, todo el contenido de este sitio está bajo una Licencia Creative Commons Atribución-NoComercial 4.0 Internacional.

Descargar disposiciones legales completas

Encartes, vol. 8, núm 16, septiembre 2025-febrero 2026, es una revista académica digital de acceso libre y publicación semestral editada por el Centro de Investigaciones y Estudios Superiores en Antropología Social, calle Juárez, núm. 87, Col. Tlalpan, C. P. 14000, México, D. F., Apdo. Postal 22-048, Tel. 54 87 35 70, Fax 56 55 55 76, El Colegio de la Frontera Norte Norte, A. C., Carretera escénica Tijuana-Ensenada km 18.5, San Antonio del Mar, núm. 22560, Tijuana, Baja California, México, Tel. +52 (664) 631 6344, Instituto Tecnológico y de Estudios Superiores de Occidente, A.C., Periférico Sur Manuel Gómez Morin, núm. 8585, Tlaquepaque, Jalisco, Tel. (33) 3669 3434, y El Colegio de San Luís, A. C., Parque de Macul, núm. 155, Fracc. Colinas del Parque, San Luis Potosi, México, Tel. (444) 811 01 01. Contacto: encartesantropologicos@ciesas.edu.mx. Directora de la revista: Ángela Renée de la Torre Castellanos. Alojada en la dirección electrónica https://encartes.mx. Responsable de la última actualización de este número: Arthur Temporal Ventura. Fecha de última modificación: 22de septiembre de 2025.
es_MXES