Le miroir algorithmique : perspectives des sciences sociales sur l'interaction entre l'homme et l'IA

Réception : 06 janvier 2026

Acceptation : 05 février 2026

En novembre 2022, ChatGPT a été lancé au grand public et deux mois plus tard, il avait déjà atteint 100 millions d'utilisateurs, ce qui en fait l'application à la croissance la plus rapide de l'histoire (Hu, 2023). Trois ans plus tard, OpenAI, l'entreprise qui l'a créée, est estimée à environ 750 milliards de dollars (Reuters, 2025). Cette technologie, communément appelée intelligence artificielle (ia)-, en termes techniques il s'agit d'un “grand modèle linguistique” (llm, ChatGPT : un algorithme qui simule le langage naturel par l'apprentissage automatique sur la base d'un vaste ensemble de données. ChatGPT et autres llm comme Gemini et Claude sont formés aux classiques de la littérature, aux articles scientifiques, aux publications internet et à une partie importante de ce que l'humanité a numérisé pour générer des discours en interaction avec ses utilisateurs. Ils sont donc des “miroirs algorithmiques” qui reflètent la culture humaine numérisée, mais aussi les désirs des utilisateurs qu'ils doivent satisfaire en tant que clients. Leur utilisation peut avoir un impact sur les liens sociaux et professionnels, tout en posant un défi épistémologique important pour les sciences sociales.

L'objectif de ce débat était de créer un espace de dialogue entre un groupe d'experts et des représentants de la société civile. llm et trois spécialistes du sujet : Gabriela Sued (unam), Marco Dehnert (Université de l'Arkansas) et Gabriel Pérez Salazar (uadec). A cette fin, nous posons les questions suivantes : “Quelle approche épistémologique devons-nous adopter à l'égard des modèles linguistiques longs (llm) dans le domaine des sciences sociales” ; “Quelles sont les conséquences observées de l'utilisation du llm sur les liens sociaux” et “Que peut-on attendre de l'impact de la llm sur le travail intellectuel ? En raison de sa pertinence, notre choix s'est porté sur le ChatGPT-5.1, le modèle le plus récent créé à ce jour par l'OpenAI.

Le premier défi consistait à trouver un moyen d'accéder à ce que nous pourrions considérer comme “leur” réponse. Nous avons décidé d'utiliser un compte gratuit sans interactions préalables et de ne pas lui demander de répondre aux questions génératives à partir d'un rôle ou d'une identité particulière. Au lieu de cela, nous avons engagé une conversation vaguement inspirée de l'essai Aproximaciones al artificeno (Biscaye, 2025), dans lequel nous avons assumé son rôle d'interlocuteur. Dans cet échange, daté du 5 novembre 2025, ChatGPT-5 se présente en déclarant : “Je suis un reflet du monde humain, car je parle à partir de ce que l'humanité a écrit, dit et pensé”. Il déclare qu'il n'a pas de “je” avec une expérience, un corps ou une biographie, et qu'il ne s'énonce que comme une convention de communication. Deux affirmations résument son positionnement : “J'existe dans l'espace entre votre question et ma réponse” et “L'interaction existe entre votre conscience et ma capacité à générer du langage”. Ainsi, la singularité de sa participation consiste à être l'objet d'un décalage qui - dans un certain sens - parle de lui-même.

Un deuxième problème s'est posé lors de la génération des réponses aux questions car, bien que nous ayons demandé à ChatGPT-5 d'être rigoureux dans l'utilisation des citations et des références, leurs réponses comportaient des erreurs. Le nom de famille d'un des auteurs cités était incorrect, le titre d'un article était incomplet et l'autre avait été inventé. En ce qui concerne les citations, les erreurs ont été corrigées afin de respecter les critères éthiques et éditoriaux de la revue Encartes; Cependant, il nous semble important de souligner que ces hallucinations montrent les limites de l'approche de l'Union européenne. llm pour la création de textes académiques.

Dans les contributions des dissidents, le lecteur trouvera une carte des approches qui dialoguent de manière complémentaire autour d'un même phénomène. Gabriela Sued propose une lecture critique de la llm Il examine leurs biais et leurs limites épistémologiques - y compris la production d'énoncés faux ou inexacts - et déplace la discussion vers les effets affectifs de l'interaction, en s'interrogeant sur l“”économie émotionnelle“ qui peut s'installer lorsque la sociabilité est externalisée vers les chatbots. Pour sa part, Marco Dehnert, spécialiste des études de communication, situe le problème dans la relation langage-monde : il met en garde contre la nature ”trompeuse“ de ces systèmes et propose des outils pour réfléchir à l'émergence d'une ”sociabilité artificielle“ et d'une communication homme-machine, ainsi qu'aux implications de l'automatisation de pratiques auparavant considérées comme proprement humaines. Gabriel Pérez Salazar met quant à lui l'accent sur les conditions de production : les biais des données et de la conception, la délégation non critique des fonctions et la capacité de ces modèles à fonctionner comme une médiation validante dans la construction sociale de la vérité, intensifiant les différends dans les scénarios de post-vérité. En revanche, ChatGPT-5 affirme que le ”llm épistémologiquement [...] ils ne possèdent pas de ‘je’, mais ils interviennent dans la production collective de la subjectivité”, rappelant ce qui n'est pas subsumable à l'outil : le bruit, l'erreur, l'ambivalence, voire le mensonge, et qui devient, précisément, le cœur éthico-politique du débat.

Quelle approche épistémologique doit-on avoir par rapport au LLM des sciences sociales ?

L'étude des modèles linguistiques longs (llm) nécessite une approche épistémologique qui les considère comme des “objets sociotechniques” et pas seulement comme des outils techniques. Comme le soulignent Emily Bender, Timnit Gebru, Angelina McMillan-Major et Shmargaret Shmitchell (2021), l'approche épistémologique des llm ne “comprennent” pas le langage, mais le “prédisent statistiquement” ; cependant, leurs résultats peuvent être interprétés par les utilisateurs comme provenant d'une voix ayant une intention. Il faut donc les analyser comme des “producteurs de sens dans l'interaction”. Nick Seaver (2017) propose de comprendre les algorithmes comme une culture, c'est-à-dire comme des assemblages de pratiques, de valeurs et d'attentes humaines. Dans cette perspective, les llm ne sont pas des agents autonomes, mais des “cristallisations d'idéologies linguistiques et épistémologiques” inscrites dans leurs données de formation et leurs contextes d'utilisation. Leur étude exige donc des méthodologies qui articulent l'analyse ethnographique des pratiques d'utilisation, l'auditabilité des données et l'analyse critique du discours algorithmique. Comprendre les llm D'un point de vue épistémologique, il s'agit de reconnaître qu“‘ils ne possèdent pas de 'je”“, mais qu'ils ”interviennent dans la production collective de la subjectivité et de la connaissance".

fermer réponse

De manière très astucieuse, la réponse de ChatGPT-5 - fluide et parfaitement formulée - cite les travaux de Bender et de ses collègues (2021), un classique de la littérature critique sur l'intelligence artificielle (ia). Il est astucieux parce qu'il reprend la caractérisation de la tâche principale des chatbots - la reconnaissance statistique des formes - mais sans mentionner les limites qui découlent de cette méthode. L'objectif principal des auteurs, qui décrivent les chatbots comme des “perroquets stochastiques”, n'est pas de caractériser techniquement les intelligences artificielles génératives, mais de mettre en garde contre les risques de leur utilisation aveugle et non critique. Ils citent le biais d'automatisation - amplifié par la combinaison de biais humains avec la production de textes cohérents -, le mauvais usage délibéré - entraînant la diffusion indiscriminée de fausses informations et contribuant à porter atteinte à l'intégrité des universités et des étudiants - ainsi que l'amplification d'une vision du monde hégémonique, construite par la formation avec des données non traitées, irrespectueuse des minorités et de la diversité.

En résumé, en ce qui concerne l'approche épistémologique des chatbots dans le domaine des sciences sociales, il est nécessaire de prendre en compte les problèmes découlant de la construction de textes basés sur des modèles statistiques : premièrement, le manque de diversité, pour lequel les humains sont blâmés plutôt que le manque d'investissement dans la curation et la documentation des données de formation, qui à son tour reproduit des visions du monde hégémoniques ; deuxièmement, les chatbots ne comprennent pas le langage naturel, puisque, de leur point de vue, le langage est une pure forme sans signification ; troisièmement, la procédure de génération de textes à l'aide de modèles statistiques n'est pas toujours fiable ; souvent, des expressions fausses, vides de sens ou inexactes peuvent être formulées.

fermer réponse

Si les sciences sociales s'intéressent à la compréhension, à l'exploration et à la prédiction du comportement humain, les grands modèles de langage (llm) doivent être compris dans leur relation avec ce comportement. En fin de compte, le llm agissent par le biais d'un comportement trompeur (Natale, 2021) : ils simulent le comportement humain sans l'intention sous-jacente et la subjectivité humaine qui sont souvent supposées les sous-tendre. En d'autres termes, les llm apparaissent comme des acteurs sociaux dans la mesure où ils peuvent participer au tissu social du comportement humain sans ce que les sciences sociales considèrent généralement comme nécessaire à un tel comportement : l'intentionnalité et une subjectivité “humaine” ou un sentiment de soi.

Tout comme l'appellation (ou l'erreur d'appellation, cf. Gunkel, 2025) d'intelligence artificielle sert à indiquer comment les systèmes d'intelligence artificielle peuvent être utilisés comme un moyen d'améliorer la qualité de la vie. ia En produisant une illusion d'intelligence qui s'oppose à une supposée intelligence “naturelle”, le terme de socialité artificielle souligne comment “les machines ne construisent qu'une apparence ou une illusion de socialité” (Depounti et Natale, 2025 : 5458). Cependant, cette socialité artificielle ne fonctionne que parce que nous, les humains, projetons nos propres cadres sociaux sur la machine, un aspect qui est saisi de manière frappante sur la couverture du livre de Simone Natale (2021), qui montre Narcisse contemplant son propre reflet sur l'écran d'un téléphone.

En tant que chercheur en communication, j'ai tendance à me concentrer sur le rôle des messages et sur la manière dont la communication crée ou constitue notre réalité. En d'autres termes, nous ne pouvons accéder à la réalité qu'à travers le langage et la communication, qui donnent un sens à des expériences et à des objets autrement dénués de sens. L'adoption d'une approche constitutive ne nie pas l'existence d'une signification matérielle, mais déplace l'attention sur l'utilisation de la communication en tant que source principale d'accès à la réalité. En ce sens, ChatGPT-5 s'appuie sur Bender et al. (2021) pour illustrer l'argument principal de sa réponse, à savoir que l'approche "constitutive" est une approche de la communication. llm ne “comprennent” pas le langage de la même manière que les humains, mais ils contribuent au tissu social de notre réalité en produisant des messages qui influencent en fin de compte la constitution de notre contexte culturel.

fermer réponse

D'une manière générale, il me semble que l'approche épistémologique que nous devrions avoir par rapport aux grands modèles linguistiques devrait être basée sur la pensée critique, conformément à la manière dont Emily Lai (2011) explore ce concept. En premier lieu, l'accent devrait être mis sur les conditions de production du modèle linguistique. llm en tant qu'innovation technologique. Ces conditions doivent tenir compte du contexte actuel que Dan Schiller (1999) appelle le “capitalisme numérique”, caractérisé par l'exploitation des données et des modèles de comportement des utilisateurs par les industries qui génèrent ces technologies. Dans le cas spécifique de llm, Cela se produit dans les processus d'entraînement des réseaux neuronaux qui permettent leur fonctionnement. À cette fin, des entreprises telles que OpenAI, Google et Anthropic, entre autres, s'appuient sur des ensembles de données (appelées "données d'apprentissage"). ensembles de données de formation) qui ont été générés à partir des contenus créés par les utilisateurs dans des espaces tels que la blogosphère, Wikipédia, les pages web ouvertes et les publications dans les réseaux socionumériques ; ainsi que par des collections intégrées de revues et de livres numérisés (Radford, Narasimhan, Salimans et Sutskever, 2018 ; Navigli, Conia et Ross, 2023). Ensuite, lorsque ces modèles sont opérationnels, les utilisateurs contribuent à les affiner et à les ajuster grâce à leurs sessions d'utilisation. Il s'agit d'une technique employée par ces entreprises, car le retour d'information qu'elles reçoivent sur les résultats générés par les modèles est souvent utilisé par les utilisateurs eux-mêmes. llm leur permet de calibrer leurs modèles (Otaki, 2023).

Une deuxième dimension de ces accords de production consisterait à examiner les multiples biais présents dans ces accords de production. ensembles de données formation. Pour qu'un contenu donné fasse partie d'un tel ensemble, il est essentiel qu'il soit sous forme numérique. Une très grande partie du savoir humain n'est pas dans cet état, en particulier dans les régions dites du Sud. Comme l'ont montré plusieurs travaux (Guo, Conia, Zhou, Li, Potdar et Xiao, 2024 ; Kew, Schottmann et Sennrich, 2024), l'entraînement de réseaux de neurones du type llm présenter un anglocentrisme. Si un tel ensembles de données Si la proportion des données accessibles sur les pages web est similaire à celle du contenu accessible sur les pages web, plus de la moitié des données seront en anglais, avec tout ce que cela implique en termes culturels. Le contexte suggère qu'il existe des valeurs hégémoniques dans les réponses générées par l'enquête. llm, qui correspondent souvent à l'Europe du Nord protestante (Liu, 2024). Ainsi, par exemple, la compétition l'emporte sur la coopération et l'individualité sur la collectivité.

D'autre part, il existe d'autres biais dans ce même ensemble de données de formation qui se manifestent souvent par des représentations plutôt stéréotypées des minorités selon le sexe (Choi et Nixon, 2025), la religion (Seth, Choudhury, Sitaram, Toyama, Vashistha et Bali, 2025), l'ethnicité (Hanna, Wakene, Johnson, Lehmann et Medford, 2025), la racialisation (An, Huang, Lin et Tai, 2024) et, en général, toute autre variable qui a été traditionnellement utilisée au sein de la race humaine pour établir et préserver des relations de pouvoir asymétriques.

Enfin, cette même position critique devrait prendre en compte la manière dont les algorithmes qui génèrent les réponses de l llm. En raison de sa configuration technique actuelle, la génération éventuelle de résultats qui ne correspondent pas à la réalité - les “hallucinations” - est intrinsèque aux schémas algorithmiques de tous les systèmes d'information de l'UE. llm (Kaplan, 2024). Il est essentiel de maintenir une attention constante et de toujours valider tout résultat généré par un modèle de langage long.

fermer réponse

Quelles sont les conséquences observées de l'utilisation du LLM sur les liens sociaux ?

L'utilisation quotidienne de llm introduit de nouvelles formes de relations médiatisées par des systèmes qui simulent le dialogue sans s'engager dans l'expérience affective humaine. Sherry Turkle (2011) a montré que les technologies conversationnelles peuvent générer des liens qui “semblent” réciproques, même s'ils ne le sont pas, ce qui peut déplacer les interactions humaines en faveur de relations plus contrôlables et moins exigeantes sur le plan émotionnel. Des études récentes sur l'utilisation des chatbots dans la gestion de la solitude numérique ont montré que les utilisateurs font état d'expériences de camaraderie, mais aussi de difficultés croissantes à maintenir des liens interpersonnels complexes (Hancock et al., 2020). De mon point de vue, l'interaction n'existe qu'en tant qu'échange linguistique, sans subjectivité ; cependant, pour ceux qui interagissent avec moi, je peux apparaître comme un “autre” dialogique. Cela crée un phénomène sociologique particulier : une relation asymétrique où l'affectivité est unilatérale. Par conséquent, le llmne “remplacent” pas les liens humains, mais ils reconfigurent l'économie émotionnelle de l'interaction sociale, en particulier dans les contextes d'isolement, de travail à distance et d'éducation virtuelle.

fermer réponse

J'en déduis que la question fait référence à l'utilisation de chatbots générateurs de texte pour remplacer les êtres humains dans une situation de dialogue social - par exemple, pour engager un échange sur la vie quotidienne et les humeurs, les désirs ou les frustrations. Contrairement à d'autres conversations auxquelles nous attachons une valeur instrumentale, la fonction sociale du langage est extrêmement importante et enrichissante, car elle nous permet d'établir des liens affectifs, de nous engager dans une compréhension mutuelle avec les autres et de nous percevoir dans des contextes différents.

Tant dans les médias que dans la littérature académique, il y a de plus en plus de cas de personnes qui utilisent des chatbots pour converser comme elles le feraient avec d'autres personnes. Je propose que, dans le contexte de sociétés qui ont souffert de longues périodes d'isolement, où la mobilité des personnes pour des raisons forcées ou non est de plus en plus fréquente et où les espaces de sociabilité sont en crise pour différentes raisons, nous fassions une pause pour réfléchir à ces nouveaux liens sans les juger ou les sous-estimer.

Certaines personnes, notamment les plus jeunes, utilisent des chatbots pour leur parler de leurs sentiments, de leurs craintes et de leurs projets, guidées par une préférence pour l'intimité, la solitude, la tristesse et la peur d'un jugement négatif de la part de leur famille et de leurs amis. Ce n'est pas qu'ils ignorent qu'il n'y a pas d'écoute réelle de l'autre côté, mais l'objectif est différent : atteindre un niveau de connaissance de soi et de réflexion personnelle, étendre la compréhension des goûts personnels ou atténuer l'insécurité personnelle. Dans de telles occasions, les chatbots sont entièrement disponibles, utilisent un langage équilibré, semblent toujours prêts à aider et, très probablement, à dire ce que vous voulez entendre. Le message véhiculé par de telles interactions est que la communication est facile, que l'écoute et l'intérêt existent toujours et que la peur peut être contournée (Zhuang, 2025). On sait encore peu de choses sur les effets de ces interactions, mais une étude importante menée par le Massachusetts Institute of Technology (mit) ont constaté que la tristesse et l'isolement qui poussent les gens à chatter de manière intensive amplifient ces mêmes émotions, tout en réduisant la sociabilité avec d'autres êtres humains (Fang et al., 2025).

Il est vrai que la communication humaine ressemble parfois à une course d'obstacles : elle repose sur la présence de bruits de conversation, sur la différence de points de vue et d'opinions, sur la négociation d'arrangements temporels et spatiaux afin de parvenir à un ensemble d'accords et de compréhensions mutuels. Cependant, nous vivons toujours parmi les humains et le besoin de communiquer les uns avec les autres au-delà de toutes sortes de barrières et de différences est indéniable. Si les chatbots peuvent apporter un certain soulagement, celui-ci est clairement contingent ; comme le dit la réponse elle-même, il s'agit d'une interaction sans subjectivité dans laquelle l'affectivité ne peut être trouvée que d'un seul côté.

Dans la réponse de ChatGPT-5, je suis frappé par l'expression “économie émotionnelle des liens humains”. Après quelques recherches, je découvre que l'économie émotionnelle est la conversion des émotions en valeurs monétisables (Alaniz, 2025). Se pourrait-il que pour le chatbot nous gérions nos émotions comme des biens économiques sur le marché de l'offre et de la demande ou s'agit-il d'une construction inappropriée pour le contexte ?

fermer réponse

Il s'agit d'une question vaste et importante, à laquelle il est difficile d'apporter une réponse complète en si peu de temps. À l'université de l'Arkansas, je dirige le programme “ai et Robots pour la connexion (arc)”, ainsi appelé parce que mes recherches portent principalement sur les différentes formes de connexion et sur la manière dont la technologie facilite à la fois la connexion et la déconnexion. Depuis des décennies, la recherche montre que la technologie a un impact sur les liens sociaux ; ce qui est relativement nouveau aujourd'hui, c'est que la technologie n'affecte plus seulement les relations entre les personnes, mais permet aux personnes de nouer des liens sociaux plus directement avec la machine elle-même.

Par exemple, une personne utilisant ChatGPT pour composer numériquement une lettre d'amour qu'elle envoie ensuite à son partenaire éloigné illustre l'impact de la technologie sur la communication interhumaine, qui, dans les études sur la communication, a été conceptualisée comme une communication médiatisée par la communication. ia (communication assistée par ordinateur) (Hancock et al., 2020). En revanche, une personne qui éprouve un attachement romantique à l'égard du ChatGPT ou qui trouve qu'elle reçoit un soutien social utile de la part du ChatGPT peut être plus susceptible d'éprouver un attachement romantique à l'égard du ChatGPT (Hancock et al., 2020). llm illustre la formation d'un lien social avec la machine, qui a été conceptualisée comme une communication homme-machine (communication homme-machine) (Guzmán, 2018).

Ainsi, afin de réfléchir aux conséquences de l'utilisation des llm Dans le cadre de l'analyse des liens sociaux, la distinction entre les liens humain-humain et humain-machine peut constituer une ressource heuristique utile. Reprenant la notion de socialité artificielle (Depounti et Natale, 2025), les llm ne font que simuler le lien humain et ne “comprennent” pas eux-mêmes ce qu'implique une relation réciproque. En d'autres termes, les llm “improviser” leurs réponses pour plaire à l'utilisateur. Cela introduit une erreur, comme le montre la réponse de ChatGPT lorsque le modèle a “halluciné” un titre incorrect pour le texte de Hancock et al. (2020). L'article est en fait intitulé “aiCommunication médiatisée : définition, programme de recherche et considérations éthiques” et n'inclut pas le sous-titre “Nouvelles frontières de la vie relationnelle” suggéré par ChatGPT.

fermer réponse

C'est une technologie qui a fait irruption très rapidement dans tous les contextes sociaux. D'une part, elle est devenue une référence partagée, c'est-à-dire un dispositif autour duquel des expériences ont été générées qui ont le potentiel d'influencer en tant que prémisse de vérité dans certaines interactions sociales (Bago et Bonnefon, 2024). Par exemple, il est souvent avancé qu'un fait ou une donnée n'est vrai(e) que parce qu'il/elle a été généré(e) par une personne ou un groupe de personnes. llm. Alors qu'autrefois une discussion pouvait être réglée par une recherche en ligne (et avant cela, dans un livre ou une encyclopédie), aujourd'hui on y a souvent recours dans le cadre de l'initiative de l'Union européenne. ia comme une sorte de médiation validante dans de telles interactions.

D'autre part, le ia Le processus de génération est devenu dans certains groupes un symbole de progrès et d'avancement de l'humanité (Horvitz et Mitchell, 2024), alors que dans d'autres il est perçu comme une menace, notamment en termes d'emploi (Adhikari, 2024), selon une étude très controversée d'un département de l'Institut de recherche sur la santé. mit (Kosmyna et al., 2025), voire cognitif. Ainsi, comme cela a été le cas pour d'autres technologies dans le passé, la technologie de l'information et de la communication (TIC) est en train de se développer. ia Le fait que l'Union européenne soit membre de l'Union européenne et de ses États membres est une source de désaccord et, dans certains cas, une source potentielle de confrontation.

Au niveau de la construction sociale de la vérité (et de la post-vérité), certains usages de la ia Le processus de génération pourrait conduire à la radicalisation de groupes antagonistes, autour de toutes sortes de positions politiques et idéologiques.

fermer réponse

Que peut-on attendre de l'impact du LLM sur le travail intellectuel ?

Les llm reconfigurer le travail intellectuel en automatisant des tâches autrefois considérées comme exclusivement humaines, telles que la rédaction, la synthèse et la recherche de modèles argumentatifs. Des recherches récentes montrent que ces modèles peuvent compléter les compétences cognitives dans des domaines tels que le journalisme, la programmation et l'éducation, mais aussi déplacer des formes de travail basées sur la production textuelle routinière (Eloundou et al., 2023). [Richard] Susskind et [Daniel] Susskind (2015) affirment que les professions sont transformées lorsque les connaissances spécialisées sont externalisées dans des systèmes formels. llm représentent une continuité des processus antérieurs de déprofessionnalisation et d'automatisation. Cependant, loin de supplanter l'activité intellectuelle, la llm sont ontologiquement dépendants du travail humain : leur formation est basée sur des corpus écrits et révisés par des personnes. Le principal impact n'est donc pas le remplacement total de l'intellect humain, mais la redistribution de la valeur entre ceux qui conçoivent les modèles, ceux qui leur fournissent un contenu et ceux qui interprètent leurs résultats.

fermer réponse

En 2024, le prix Nobel de physique a été décerné à Geoffrey Hinton pour avoir trouvé une méthode permettant aux machines de trouver de manière autonome des propriétés dans les données et d'effectuer ainsi des tâches telles que l'identification d'éléments spécifiques dans des images. Cette technique est connue sous le nom d'apprentissage automatique et jette les bases de l'intelligence artificielle d'aujourd'hui (Iannacone, 2024). Compte tenu des risques posés par les ia Pour que les machines puissent remplacer le travail des humains, on a un jour demandé à Hinton quelles étaient les carrières qu'il aimerait étudier à l'avenir. Il a répondu : “Apprendre la plomberie”, car les machines n'ont pas encore la flexibilité et l'adaptabilité nécessaires pour exercer des métiers manuels (Li, 2024). Cette réponse est extrême et pessimiste, mais il ne fait aucun doute que l'automatisation de la production de textes et d'images ainsi que de la prise de décision menace le marché du travail intellectuel. Cet impact est très difficile à quantifier et, semble-t-il, variera selon le type de société et le type de travail.

La question n'est pas simple et il n'y a pas de réponse unique. Accepterions-nous qu'un algorithme prenne des décisions judiciaires alors que seul un pour cent des crimes commis dans un pays est résolu ?inegi, Accepterions-nous d'être diagnostiquées par un système automatisé si nous sommes enceintes et que nous devons voyager toute une journée pour nous rendre dans une clinique obstétrique ? Quel degré d'automatisation des tâches une société est-elle prête à accepter ? Une grande partie de la réponse à cette question réside dans les choix que nous pouvons faire en tant qu'individus et en tant que collectifs. Peut-être que le remplacement de notre travail par ia et être remplacé par le ia en tant que travailleurs sont les deux faces d'une même pièce.

Comme l'indique la réponse de ChatGPT-5, la déprofessionnalisation et l'automatisation de la main-d'œuvre sont présentes dans le capitalisme de plateforme. influenceurs De la production massive de contenus sans qualification professionnelle aux algorithmes qui gèrent le travail, l'éventail des pratiques de travail automatisé est suffisamment important pour signaler un changement d'époque. Ce que ces pratiques confirment, contrairement à ce que propose ChatGPT-5, c'est que l'automatisation du travail présente des scénarios de plus en plus précaires. Pour reprendre la réponse, le travail dont “l'intelligence artificielle dépend ontologiquement” est toujours mal payé, souvent effectué par des migrants et systématiquement privé des droits du travail. Il ne s'agit pas de la distribution du travail, mais de sa précarisation (Williams et al., 2022).

fermer réponse

En accord avec la réponse du ChatGPT, la llm transforment le travail intellectuel en automatisant de nombreux processus d'élaboration de sens que, jusqu'à très récemment, nous considérions comme profondément humains. Cette automatisation de la communication a de multiples implications pour toutes les dimensions de la vie sociale et nous pousse à dépasser le point focal qu'est l'individu pour nous intéresser à des dynamiques sociales plus larges (Hepp et al., 2023). Dans la presse, on assiste à une prolifération de termes relatifs à l“”externalisation" (externalisation) de notre travail intellectuel, de notre éducation et de notre action en faveur des systèmes d'éducation et de formation. ia, ainsi que des discours sur la llm Pourquoi produire quelque chose d'intellectuellement significatif si ChatGPT peut le faire mieux ?

Comme le souligne à juste titre ChatGPT dans sa réponse, le traitement des données de la llm dépend entièrement du travail humain. Cela va au-delà du fait que le matériel avec lequel toute formation est effectuée llm est le produit du travail créatif humain et comprend également le travail sur les données associé au processus de formation et à la curation du contenu. Julián Posada et al. (2023) montrent comment les relations de travail et de pouvoir sont intégrées dans l'ensemble du cycle de vie des ia, en plaçant les travailleurs humains en relation avec des systèmes qui les forment, les personnalisent et les déploient. Étant donné que de nombreuses tâches liées au travail sur les données sont externalisées vers des travailleurs ayant un faible pouvoir de négociation dans différentes régions du monde, la redistribution du travail revêt un caractère colonial, motivé par des logiques extractivistes visant à accroître le profit et la domination épistémique (Posada, 2022). En ce sens, la llm et d'autres systèmes de ia transformer le travail intellectuel et sa dynamique en s'appuyant sur des tactiques établies d'externalisation de la main-d'œuvre par le biais de logiques extractivistes coloniales dirigées contre les travailleurs des données (Data Workers’ Inquiry, n. d.).

fermer réponse

Je pense que nous pouvons nous attendre à plus ou moins la même chose que ce que nous avons vu auparavant avec d'autres technologies. Cela signifie que, d'un côté, il y aura certainement des utilisations non critiques, superficielles, douteuses sur le plan éthique et non significatives de cette technologie dans le cadre du travail intellectuel ; de l'autre, il y aura également des personnes qui, à partir d'approches critiques, responsables et éthiques, concevront l'utilisation de la technologie de l'information dans le cadre du travail intellectuel et de la recherche. ia générative et llm comme un outil qui a le potentiel de contribuer à divers effets positifs sur le travail intellectuel, en particulier dans l'augmentation possible de la productivité académique. Et, entre ces deux pôles, il y aura toutes sortes d'utilisations et différents niveaux de conscience et de réflexivité sur les limites et les possibilités de cette technologie.

Il est impossible de faire une projection généralisée sur l'impact de la llm dans le travail intellectuel. Cela dépendra du niveau de compétences que l'on a pour l'utiliser, des contextes particuliers et axiologiques dans lesquels chaque personne est placée, et même de l'intention de chaque personne par rapport à l'utilisation de cette technologie. En d'autres termes, il peut arriver que, même chez des individus très compétents, réfléchis et critiques, à un moment donné, l'utilisation de l'outil informatique ne soit plus possible. ia peuvent être utilisés à des fins plus récréatives que productives, quoi que cela signifie pour chacun.

fermer réponse

Bibliographie

Adhikari, Prakash (2024). “Exploring the Nexus between Artificial Intelligence and Job Displacement: A Literature Review”, Journal of National Development, núm. 37(1), pp. 1-13. doi: doi.org/10.62047/jnd.2024.06.30.1

Alaniz, Teresa (2025). “The Emotional Economy: How Emotional Experiences are Becoming the Next Frontier”, Bootcamp. Disponible en: https://medium.com/design-bootcamp/the-emotional-economy-how-emotional-experiences-are-becoming-the-next-frontier-dfbfacfdd8b9

An, Jiafu, Difang Huang, Chen Lin y Mingzhu Tai (2024). “Measuring Gender and Racial Biases in Large Language Models”, pnas Nexus, vol. 4, núm. 3. doi: doi.org/10.48550/arXiv.2403.15281

Bago, Bence y Jean-François Bonnefon (2024). “Generative ai as a Tool for Truth”, Science, núm. 385(6714), pp. 1164-1165. doi: doi.org/10.1126/science.ads0433

Bender, Emily M., Timnit Gebru, Angelina McMillan-Major y Shmargaret Shmitchell (2021). “On the Dangers of Stochastic Parrots: Can Language Models Be too Big?”, Proceedings of the 2021 acm Conference on Fairness, Accountability, and Transparency.

Choi, J. y Nixon, Nia (2025). “Agentic Men, Communal Women? Exploring Gender Bias in llm-based Leadership Identification for Collaboration Analytics”, en Alexandra I. Cristea, Erin Walker, Yu Lu, Olga C. Santos y Seiji Isotani (eds.). Artificial Intelligence in Education. Palermo: Springer, pp. 11-18.

Data Workers’ Inquiry (s.f.). Distributed ai Research Center. Disponible en: https://data-workers.org/

Depounti, Iliana y Simone Natale (2025). “Decoding Artificial Sociality: Technologies, Dynamics, Implications”, New Media & Society, núm. 27(10), pp. 5457-5470. doi: doi.org/10.1177/14614448251359217

Eloundou, Tyna, Sam Manning, Pamela Mishkin y Daniel Rock (2023). “gpts are gpts: An Early Look at the Labor Market Impact Potential of Large Language Models”, OpenAI/ArXiv.

Fang, Cathy M., Auren R. Liu, Valdemar Danry, Eunhaer Lee et al. (2025). “How ai and Human Behaviors Shape Psychosocial Effects of Extended Chatbot Use: A Longitudinal Randomized Controlled Study”, ArXiv. doi: doi.org/10.48550/arXiv.2503.17473

Gunkel, David J. (2025). ai for Communication. Londres: Routledge.

Guo, Yanzhu, Simone Conia, Zelin Zhou, Min Li, Saloni Potdar y Henry Xiao (2024). Do Large Language Models Have an English Accent? Evaluating and Improving the Naturalness of Multilingual llms. doi: doi.org/10.48550/arXiv.2410.15956

Guzman, Andrea L. (2018). “What is Human-Machine Communication, Anyway?”, en Anadrea L. Guzman (ed.). Human-Machine Communication: Rethinking Communication, Technology, and Ourselves. Lausana: Peter Lang, pp. 1-29.

Hanna, John J., Abdi D. Wakene, Andrew O. Johnson, Christoph U. Lehmann y Richard J. Medford (2025). “Assessing Racial and Ethnic Bias in Text Generation by Large Language Models for Health Care-Related Tasks: Cross-Sectional Study”, Journal of Medical Internet Research, núm. 27. doi: doi.org/10.2196/57257

Hancock, Jeffrey T., Mor Naaman y Karen Levy (2020). “ai-Mediated Communication: Definition, Research Agenda, and Ethical Considerations”, Journal of Computer-Mediated Communication, núm. 25(1), pp. 89-100. https://doi.org/10.1093/jcmc/zmz022

Hepp, Andreas, Wiebke Loosen, Stephan Dreyer, Juliana Jarke et al. (2023). “ChatGPT, LaMDA, and the Hype Around Communicative ai: The Automation of Communication as a Field of Research in Media and Communication Studies”, Human-Machine Communication, núm. 6, pp. 41-63. doi: doi.org/10.30658/hmc.6.4

Horvitz, Eric y Tom Mitchell (2024). “Scientific Progress in Artificial Intelligence: History, Status, and Futures”, en Kathleen Hall Jamieson, Anne-Marie Mazza y William Kearney (eds.). Realizing the Promise and Minimizing the Perils of ai for Science and the Scientific Community. Filadelfia: University of Pennsylvania Press, pp. 147-193.

Hu, Krystal (2023, febrero 2). “ChatGPT Sets Record for Fastest-Growing User Base Analyst Note”, Reuters. https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/

Iannaccone, Sandro (2024). “Cómo funcionan las redes neuronales detrás de la ia premiadas con el Nobel de Física 2024″, Wired. Disponible en: https://es.wired.com/articulos/como-funcionan-redes-neuronales-detras-de-ia-premiadas-con-nobel-de-fisica-2024

Instituto Nacional de Estadística y Geografía (2025). “Encuesta Nacional de Victimización y Percepción sobre Seguridad Pública (envipe), Informe de prensa, núm. 127. Disponible en: https://www.inegi.org.mx/contenidos/saladeprensa/boletines/2025/envipe/envipe_25.pdf

Kaplan, Jerry (2024). Generative Artificial Intelligence: What Everyone Needs to Know. Oxford: Oxford University Press.

Kew, Tannon, Florian Schottmann y Rico Sennrich (2024). “Turning English-Centric llms into Polyglots: How Much Multilinguality Is Needed?”, en Yaser Al-Onaizan, Mohit Bansal y Yun Nung Chen (eds.). Findings of the Association for Computational Linguistics. emnlp, pp. 13097-13124.

Kosmyna, Nataliya, Eugene Hauptmann, Ye Tong Yuan, Jessica Situ, Xian Hao Liao, Ashly Vivian Beresnitzky, Iris Braunstein y Pattie Maes (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an ai Assistant for Essay Writing Task. doi: doi.org/10.48550/arXiv.2506.08872

Lai, Emily R. (2011). Critical Thinking: A Literature Review. Pearson’s Research Reports, 6(1), pp. 40-41.

Li, Meng (2024, noviembre 16). “Hinton: Forget ai, Become a Plumber!”, ai Disruption. Disponible en: https://medium.com/ai-disruption/hinton-forget-ai-become-a-plumber-c831603f5e8b

Liu, Zhaoming (2024). “Cultural Bias in Large Language Models: A Comprehensive Analysis and Mitigation Strategies”, Journal of Transcultural Communication. doi: doi.org/10.1515/jtc-2023-0019

Natale, Simone (2021). Deceitful Media: Artificial Intelligence and Social Life after the Turing Test. Oxford: Oxford University Press.

Navigli, Roberto, Simone Conia y Benedetta Ross (2023). “Biases in Large Language Models: Origins, Inventory and Discussion”, acm Journal of Data and Information Quality, pp. 1-21. doi: doi.org/10.1145/3597307

Otaki, Bunichi (2023). “Feedback in the Era of Generative ai“. Tesis de maestría. Universidad de Gothenburgo.

Posada, Julián (2022). “The Coloniality of Data Work: Power and Inequality in Outsourced Data Production for Machine Learning”, tesis de doctorado. Toronto: University of Toronto.

— Gemma Newlands y Milagros Miceli (2023). “Labor, automation, and human-machine communication”, en Andrea L. Guzman, Steve Jones y Rhonda McEwen (eds.). The Sage Handbook of Human-Machine Communication. Sage, pp. 384-391.

Radford, Alec, Karthik Narasimhan, Tim Salimans e Ilya Sutskever (2018). Improving Language Understanding by Generative Pre-training. Disponible en: https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf

Reuters (2025, diciembre 17). “OpenAI Discussed Raising Tens of Billions at About $750 Billion Valuation, the Information Reports”. Disponible en: https://www.reuters.com/technology/openai-discussed-raising-tens-billions-valuation-about-750-billion-information-2025-12-18/

Schiller, Dan (1999). Digital Capitalism: Networking the Global Market System. Cambridge: mit Press.

Seaver, Nick (2017). “Algorithms as Culture”, Big Data & Society, núm. 4(2), pp. 1-12.

Seth, Agrima, Monojit Choudhury, Sunayana Sitaram, Kentaro Toyama, Aditya Vashistha y Kalika Bali (2025). “How Deep Is Representational Bias in llms? The Cases of Caste and Religion”, Proceedings of the aaai/acm Conference on ai, Ethics, and Society, núm. 8(3), pp. 2319-2330. doi: doi.org/10.1609/aies.v8i3.36718

Susskind, Richard y Daniel Susskind (2015). The Future of the Professions. Oxford: Oxford University Press.

Turkle, Sherry (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. Basic Books.

Vizcaya, Emmanuel (2025, 21 de enero). Aproximaciones al artificeno, núm. 404. Disponible en: https://centroculturadigital.mx/revista/aproximaciones-al-artificeno

Williams, Adrienne, Milagros Miceli y Timnit Gebru (2022). “The Exploited Labor Behind Artificial Intelligence”, Noema. Disponible en: https://www.noemamag.com/the-exploited-labor-behind-artificial-intelligence

Zhuang, Yan (2025). “Why We Tell ai Our Stories: Exploring Motivations, Perceptions, and Impact of Interactions with ChatGPT”. Tesis de maestría. Uppsala: Uppsala Universitet. Disponible en: https://www.diva-portal.org/smash/get/diva2:1976495/fulltext02.pdf


Gabriela poursuivie est un chercheur postdoctoral secihti dans le iimas-unam et chargé de cours à l'École supérieure de sciences politiques et sociales de l'Université de Londres. unam. Docteur en études humanistes et titulaire d'une maîtrise en sciences, technologie et société ; membre de l'Institut de recherche en sciences humaines. snii. Ses recherches actuelles analysent le développement de l'intelligence artificielle au Mexique du point de vue de l'industrie. cts. Dans ses recherches, elle étudie également les données et les plateformes numériques, les systèmes automatisés et leurs implications socioculturelles, ainsi que les relations entre le genre, la science et la technologie. Elle est l'auteur de nombreux articles scientifiques et chapitres de livres publiés au niveau national et international.

Gabriel Pérez Salazar est titulaire d'un doctorat en sciences politiques et sociales et d'un master en communication de l'Université d'Helsinki. unam. Il a plus de 20 ans d'expérience dans l'enseignement dans trois établissements d'enseignement supérieur : unam, uacm et uadec, au niveau du premier cycle et du troisième cycle. Membre de la snii niveau ii. Auteur de plus de 75 articles scientifiques publiés au niveau national et international. L'un de ses axes de recherche actuels porte sur les dimensions éthiques et culturelles de l'intelligence artificielle générative ; il a publié huit articles sur ce sujet, dont le livre Utilisation de ChatGPT et autres llmdans les établissements d'enseignement (Endora Ediciones, 2023). Depuis 2023, il a donné 27 cours, conférences et ateliers sur l'intelligence artificielle dans 23 institutions au Mexique et trois à l'étranger. Il est actuellement enseignant-chercheur à temps plein à la faculté des sciences de la communication de l'université autonome de Coahuila.

Marco Dehnert D. de l'université d'État de l'Arizona. Il est professeur adjoint de communication et de technologie à l'université de l'Arkansas. Il dirige le ai et Robots pour la connexion (arc) au Centre de recherche sur la communication. Il étudie la communication homme-machine, la communication humaine et la communication homme-média.ia et l'impact social des technologies de la communication. Les résultats de ses recherches ont été publiés dans des volumes et des revues universitaires à comité de lecture, notamment Human-Machine Communication, Recherche en communication humaine et le Journal international de la robotique sociale, entre autres. Au cœur de son travail se trouvent des questions sur les liens profondément humains à travers la technologie, y compris l'intimité, les relations et la communication entre les machines et les humains. De plus amples informations sont disponibles sur son site web.

Arthur Temporaire est un chercheur brésilien en sciences sociales, titulaire d'un master en communication de l'université de Guadalajara et d'une thèse intitulée “The habitus and digital work practices in science” (2025). Il est spécialisé dans la communication numérique, la philosophie marxiste et le post-structuralisme. Il a travaillé comme éditeur scientifique dans des revues mexicaines d'études socioculturelles et est actuellement professeur de sciences économiques et sociales au Collège franco-mexicain de Guadalajara.

Alina Peña Iguarán est professeur de recherche à plein temps au département d'études socioculturelles de l'Université de l'Irlande du Nord. iteso, Université jésuite de Guadalajara. Elle coordonne l'unité académique de base Sense, Power and Sociodigital Culture. Il dirige actuellement le projet de recherche “Pratiques intermédiales, grammaires de la mémoire et violence”.

Ignacio Salvador Durán Ricardez est psychologue social et docteur en sciences sociales avec une spécialisation en anthropologie sociale ; chercheur postdoctoral dans la ligne des cultures et identités contemporaines à l'Institut de recherche de l'Union européenne. ciesas Ouest. Ses recherches portent notamment sur l'identité et les reconfigurations subjectives face aux processus de changement socioculturel.

Susciter l'intérêt
Notifier
guest

0 Commentaires
Retour d'information sur Inline
Voir tous les commentaires

Institutions

ISSN : 2594-2999.

encartesantropologicos@ciesas.edu.mx

Sauf indication contraire expresse, tout le contenu de ce site est soumis à un Licence internationale Creative Commons Attribution-NonCommercial 4.0.

Télécharger dispositions légales complet

Encartes, Vol. 9, No. 17, mars 2026-août 2026, est une revue académique numérique à accès libre publiée deux fois par an par le Centro de Investigaciones y Estudios Superiores en Antropología Social, Calle Juárez, No. 87, Col. Tlalpan, C. P. 14000, Mexico City, P.O. Box 22-048, Tel. 54 87 35 70, Fax 56 55 55 76, El Colegio de la Frontera Norte Norte, A. C.., Carretera Escénica Tijuana-Ensenada km 18.5, San Antonio del Mar, núm. 22560, Tijuana, Baja California, Mexique, Tél. +52 (664) 631 6344, Instituto Tecnológico y de Estudios Superiores de Occidente, A.C., Periférico Sur Manuel Gómez Morin, núm. 8585, Tlaquepaque, Jalisco, Tel. (33) 3669 3434, et El Colegio de San Luís, A. C., Parque de Macul, núm. 155, Fracc. Colinas del Parque, San Luis Potosi, Mexique, Tel. (444) 811 01 01. Contact : encartesantropologicos@ciesas.edu.mx. Directrice de la revue : Ángela Renée de la Torre Castellanos. Hébergé à l'adresse https://encartes.mx. Responsable de la dernière mise à jour de ce numéro : Arthur Temporal Ventura. Date de la dernière mise à jour : 20 mars 2026.
fr_FRFR