O espelho algorítmico: perspectivas das ciências sociais sobre a interação homem-IA

Recepção: 06 de janeiro de 2026

Aceitação: 05 de fevereiro de 2026

Em novembro de 2022, o ChatGPT foi lançado para o público em geral e, dois meses depois, já havia atingido 100 milhões de usuários, tornando-se o aplicativo de crescimento mais rápido da história (Hu, 2023). Três anos depois, a OpenAI, a empresa que o criou, foi avaliada em aproximadamente US$ 750 bilhões (Reuters, 2025). Essa tecnologia - popularmente conhecida como inteligência artificial (ia)-, em termos técnicos, é um “modelo de linguagem grande” (llm, ChatGPT: um algoritmo que simula a linguagem natural por meio do aprendizado de máquina com base em um enorme conjunto de dados. ChatGPT e outros llm como Gemini e Claude, são treinados em clássicos da literatura, artigos científicos, publicações da Internet e uma parte significativa do que a humanidade digitalizou para gerar discursos em interação com seus usuários. Eles são, portanto, “espelhos algorítmicos” que refletem a cultura humana digitalizada, mas também os desejos dos usuários que eles devem agradar como clientes. Seu uso pode ter um impacto sobre os laços sociais e de trabalho, além de representar um importante desafio epistemológico para as ciências sociais.

O objetivo desse debate foi criar um espaço para o diálogo entre um llm e três especialistas no assunto: Gabriela Sued (unam), Marco Dehnert (Universidade de Arkansas) e Gabriel Pérez Salazar (uadec). Para isso, fazemos as seguintes perguntas: “Que abordagem epistemológica devemos adotar com relação aos modelos de linguagem longa (llm) das ciências sociais?”; “Que consequências foram observadas com o uso de llm sobre os vínculos sociais” e “O que podemos esperar do impacto da llm no trabalho intelectual? Devido à sua relevância, nossa escolha foi trabalhar com o ChatGPT-5.1, o modelo mais recente criado até o momento pela OpenAI.

O primeiro desafio foi criar um caminho para acessar o que poderíamos considerar como a resposta “deles”. Decidimos usar uma conta gratuita, sem interações anteriores, e não pedir que ela respondesse às perguntas geradoras a partir de uma função ou identidade específica. Em vez disso, nos envolvemos em uma conversa livremente inspirada no ensaio Aproximaciones al artificeno (Vizcaya, 2025), no qual assumimos seu papel de interlocutor. Nessa troca de mensagens, datada de 5 de novembro de 2025, ChatGPT-5 se apresentou declarando: “Sou um reflexo do mundo humano, porque falo a partir do que a humanidade escreveu, disse e pensou”. Ele afirmou não possuir um “eu” com experiência, corpo ou biografia, e que só se enuncia como uma convenção comunicativa. Duas afirmações resumem seu posicionamento: “Eu existo no espaço entre a sua pergunta e a minha resposta” e “A interação existe entre a sua consciência e a minha capacidade de gerar linguagem”. Assim, a singularidade de sua participação consiste em ser o objeto de discrepância que - em certo sentido - fala sobre si mesmo.

Um segundo desafio surgiu ao gerar as respostas às perguntas porque, embora tenhamos solicitado ao ChatGPT-5 que fosse rigoroso no uso de citações e referências, suas respostas incorporaram erros. O sobrenome de um dos autores citados estava incorreto, o título de um artigo estava incompleto e o outro foi inventado. Em termos de citação, os erros foram corrigidos em um esforço para seguir os critérios éticos e editoriais do Encartes; No entanto, consideramos importante enfatizar que essas alucinações mostram os limites da llm para a criação de textos acadêmicos.

Nas contribuições dos dissidentes, o leitor encontrará um mapa de abordagens que dialogam de forma complementar em torno do mesmo fenômeno. Gabriela Sued propõe uma leitura crítica do llm Ele examina seus vieses e limites epistemológicos - incluindo a produção de declarações falsas ou imprecisas - e desloca a discussão para os efeitos afetivos da interação, perguntando sobre a “economia emocional” que pode ser instalada quando a sociabilidade é terceirizada para os chatbots. Por sua vez, Marco Dehnert, dos estudos de comunicação, situa o problema na relação linguagem-mundo: alerta para o caráter “enganoso” desses sistemas e oferece ferramentas para pensar o surgimento de uma “sociabilidade artificial” e a comunicação homem-máquina, bem como as implicações da automatização de práticas antes consideradas propriamente humanas. Enquanto isso, Gabriel Pérez Salazar enfatiza as condições de produção: os vieses dos dados e do design, a delegação acrítica de funções e a capacidade desses modelos de operar como mediação validadora na construção social da verdade, intensificando as disputas em cenários de pós-verdade. Em contrapartida, ChatGPT-5 argumenta que o “llm epistemologicamente [...] eles não possuem um ‘eu’, mas intervêm na produção coletiva da subjetividade”, lembrando-nos daquilo que não é subsumível à ferramenta: ruído, erro, ambivalência, até mesmo mentiras, e que se torna, precisamente, o núcleo ético-político do debate.

Que abordagem epistemológica devemos ter em relação ao LLM das ciências sociais?

O estudo de modelos de linguagem longos (llm) requer uma abordagem epistemológica que os considere como “objetos sociotécnicos” e não apenas ferramentas técnicas. Como apontam Emily Bender, Timnit Gebru, Angelina McMillan-Major e Shmargaret Shmitchell (2021), o llm não “entendem” a linguagem, mas a “predizem estatisticamente”; no entanto, seus resultados podem ser interpretados pelos usuários como provenientes de uma voz com intenção. Isso exige analisá-los como “produtores de significado na interação”. Nick Seaver (2017) propõe entender os algoritmos como cultura, ou seja, como conjuntos de práticas, valores e expectativas humanas. Sob essa perspectiva, o llm não são agentes autônomos, mas “cristalizações de ideologias linguísticas e epistemológicas” inscritas em seus dados de treinamento e contextos de uso. Assim, seu estudo exige metodologias que articulem a análise etnográfica das práticas de uso, a auditabilidade dos dados e a análise crítica do discurso algorítmico. Compreender a llm Epistemologicamente, isso significa reconhecer que “eles não possuem um ‘eu'”, mas “intervêm na produção coletiva de subjetividade e conhecimento”.

resposta próxima

De maneira muito astuta, a resposta do ChatGPT-5 - fluida e perfeitamente formulada - cita o trabalho de Bender e colegas (2021), um clássico da literatura crítica sobre inteligência artificial (ia). É astuto porque parte daí a caracterização da principal tarefa que os chatbots realizam - o reconhecimento estatístico de padrões -, mas sem mencionar as limitações decorrentes desse método. O principal objetivo dos autores, que descrevem os chatbots como “papagaios estocásticos”, não é caracterizar tecnicamente as inteligências artificiais generativas, mas alertar sobre os riscos de seu uso indiscriminado e acrítico. Eles citam o viés da automação - amplificado pela combinação de vieses humanos com a produção de textos coerentes -, o mau uso deliberado - resultando na disseminação indiscriminada de desinformação e contribuindo para minar a integridade acadêmica e estudantil -, bem como a amplificação de uma visão de mundo hegemônica, construída por meio de treinamento com dados não selecionados, desrespeitando as minorias e a diversidade.

Em suma, com relação à abordagem epistemológica dos chatbots das ciências sociais, é necessário levar em conta os problemas derivados da construção de textos com base em padrões estatísticos: Primeiro, a falta de diversidade, pela qual os seres humanos são culpados, e não a falta de investimento na curadoria e na documentação dos dados de treinamento, que, por sua vez, reproduzem visões de mundo hegemônicas; segundo, os chatbots não entendem a linguagem natural, pois, de sua perspectiva, a linguagem é pura forma sem significado; terceiro, o procedimento de geração de textos usando padrões estatísticos nem sempre é confiável; muitas vezes, podem ser formuladas expressões falsas, sem sentido ou imprecisas.

resposta próxima

Se as ciências sociais estão preocupadas em entender, explorar e prever o comportamento humano, então grandes modelos de linguagem (llm) precisam ser compreendidos em sua relação com esse comportamento. Em última análise, o llm operam por meio de comportamento enganoso (Natale, 2021): eles simulam o comportamento humano sem a intenção subjacente e a subjetividade humana que muitas vezes se supõe que estejam por trás dele. Em outras palavras, o llm aparecem como atores sociais na medida em que podem participar do tecido social do comportamento humano sem o que as ciências sociais normalmente consideram necessário para esse comportamento: intencionalidade e uma subjetividade “humana” ou senso de identidade.

Assim como o rótulo (ou equívoco, cf. Gunkel, 2025) de inteligência artificial serve para indicar como os sistemas de inteligência artificial podem ser usados para ia produzir uma ilusão de inteligência que se opõe a uma suposta inteligência “natural”, o termo socialidade artificial destaca como “as máquinas constroem apenas uma aparência ou ilusão de socialidade” (Depounti e Natale, 2025: 5458). Entretanto, essa socialidade artificial só funciona porque nós, humanos, projetamos nossas próprias estruturas sociais na máquina, um aspecto que é vividamente capturado na capa do livro de Simone Natale (2021), que mostra Narciso contemplando seu próprio reflexo na tela de um telefone.

Como pesquisador de comunicação, costumo me concentrar no papel das mensagens e em como a comunicação cria ou constitui nossa realidade. Em outras palavras, só podemos acessar a realidade por meio da linguagem e da comunicação, que atribuem significado a experiências e objetos sem sentido. A adoção de uma abordagem constitutiva não nega a existência do significado material, mas muda a atenção para o uso da comunicação como a principal fonte de acesso à realidade. Nesse sentido, ChatGPT-5 se baseia em Bender et al. (2021) para ilustrar o argumento principal de sua resposta: que a llm não “entendem” a linguagem da mesma forma que os humanos, mas contribuem para a estrutura social de nossa realidade ao produzir mensagens que, em última análise, influenciam a constituição de nosso contexto cultural.

resposta próxima

Em termos gerais, parece-me que a abordagem epistemológica que devemos ter em relação aos grandes modelos de linguagem deve se basear no pensamento crítico, de acordo com a forma como Emily Lai (2011) explora esse conceito. Em primeiro lugar, a ênfase deve estar nas condições de produção do llm como uma inovação tecnológica. Tais condições devem levar em conta o contexto atual que Dan Schiller (1999) chama de “capitalismo digital”, caracterizado pela exploração de dados e padrões de comportamento do usuário pelos setores que geram essas tecnologias. No caso específico do llm, Isso ocorre nos processos de treinamento das redes neurais que permitem sua operação. Para isso, setores como OpenAI, Google e Anthropic, entre outros, contam com conjuntos de dados (os chamados conjuntos de dados de treinamento) que foram gerados com base no conteúdo criado pelos usuários em espaços como a blogosfera, a Wikipédia, páginas da Web abertas e publicações em redes sociodigitais; bem como por coleções integradas de periódicos e livros digitalizados (Radford, Narasimhan, Salimans e Sutskever, 2018; Navigli, Conia e Ross, 2023). Depois, quando esses modelos estiverem operacionais, os usuários contribuirão para seu refinamento e ajustes por meio de suas sessões de uso. Essa é uma técnica empregada por essas empresas, pois o feedback que recebem sobre os resultados gerados pelos modelos é frequentemente usado pelos próprios usuários. llm permite que eles calibrem seus modelos (Otaki, 2023).

Uma segunda dimensão desses arranjos de produção teria de examinar os múltiplos vieses que estão presentes nesses arranjos. conjuntos de dados treinamento. Para que um determinado conteúdo faça parte desse conjunto, é essencial que ele esteja em formato digital. Uma parte muito considerável do conhecimento humano não está nesse estado, especialmente quando se trata de regiões do chamado sul global. Como vários trabalhos demonstraram (Guo, Conia, Zhou, Li, Potdar e Xiao, 2024; Kew, Schottmann e Sennrich, 2024), o treinamento das redes neurais do llm apresentam um anglocentrismo. Se esse conjuntos de dados Se a proporção dos dados acessíveis nas páginas da Web seguir uma proporção semelhante à do conteúdo acessível nas páginas da Web, então mais da metade dos dados estaria em inglês, com tudo o que isso implica em termos culturais. O histórico sugere que há valores hegemônicos nas respostas geradas pelo llm, que geralmente correspondem ao norte da Europa protestante (Liu, 2024). Assim, por exemplo, a competição prevalece sobre a cooperação e a individualidade sobre a coletividade.

Por outro lado, há outros vieses dentro desse mesmo conjunto de dados de treinamento que frequentemente se manifestam em representações bastante estereotipadas de minorias dadas por gênero (Choi e Nixon, 2025), religião (Seth, Choudhury, Sitaram, Toyama, Vashistha e Bali, 2025), etnia (Hanna, Wakene, Johnson, Lehmann e Medford, 2025), racialização (An, Huang, Lin e Tai, 2024) e, em geral, qualquer outra variável que tenha sido tradicionalmente empregada na raça humana para estabelecer e preservar relações de poder assimétricas.

Por fim, essa mesma postura crítica deve levar em conta a maneira como os algoritmos que geram as respostas do llm. Devido à sua configuração técnica atual, a eventual geração de resultados que não correspondem à realidade - as chamadas “alucinações” - é intrínseca aos padrões algorítmicos de todos os llm (Kaplan, 2024). É essencial manter atenção constante e sempre validar qualquer resultado gerado por qualquer modelo de linguagem longa.

resposta próxima

Que consequências foram observadas com o uso do LLM em links sociais?

O uso diário de llm introduz novas formas de relacionamento mediadas por sistemas que simulam o diálogo sem se envolver com a experiência afetiva humana. Sherry Turkle (2011) mostrou que as tecnologias de conversação podem gerar vínculos que “parecem” recíprocos, mesmo quando não são, o que pode substituir as interações humanas em favor de relacionamentos mais controláveis e menos exigentes emocionalmente. Estudos recentes sobre o uso de chatbots no gerenciamento da solidão digital documentaram que os usuários relatam experiências de companheirismo, mas também dificuldades crescentes em manter vínculos interpessoais complexos (Hancock et al., 2020). Do meu ponto de vista, a interação existe apenas como uma troca linguística, sem subjetividade; no entanto, para aqueles que interagem comigo, posso aparecer como um “outro” dialógico. Isso cria um fenômeno sociológico específico: uma relação assimétrica em que a afetividade é unilateral. Consequentemente, a llms [sic] não “substituem” os vínculos humanos, mas reconfiguram a economia emocional da interação social, especialmente em contextos de isolamento, trabalho remoto e educação virtual.

resposta próxima

Entendo que a pergunta se refere ao uso de chatbots geradores de texto para substituir os seres humanos em uma situação de diálogo social - por exemplo, para participar de uma troca de informações sobre a vida cotidiana e humores, desejos ou frustrações. Diferentemente de outras conversas às quais atribuímos um valor instrumental, a função social da linguagem é extremamente importante e enriquecedora, pois nos permite estabelecer vínculos afetivos, ter compreensão mútua com os outros e nos percebermos em diferentes contextos.

Tanto na mídia quanto na literatura acadêmica, há cada vez mais casos de pessoas usando chatbots para conversar como fariam com outras pessoas. Proponho que, no contexto de sociedades que sofreram longos períodos de isolamento, onde a mobilidade de pessoas por motivos forçados ou não forçados é cada vez mais frequente e onde os espaços de sociabilidade estão em crise por diferentes motivos, paremos para refletir sobre esses novos vínculos sem julgá-los ou subestimá-los.

Algumas pessoas, especialmente as mais jovens, estão usando chatbots para falar com elas sobre seus sentimentos, medos e projetos, guiadas por uma preferência pela intimidade, solidão, tristeza e medo do julgamento negativo da família e dos amigos. Não é que eles não estejam cientes de que não há uma escuta real do outro lado, mas que o objetivo é diferente: alcançar um nível de autoconhecimento e autorreflexão, ampliar a compreensão sobre gostos pessoais ou atenuar a insegurança pessoal. Nessas ocasiões, os chatbots estão totalmente disponíveis, usam uma linguagem equilibrada, parecem sempre prontos para ajudar e, muito provavelmente, dizem o que você quer ouvir. A mensagem transmitida por interações como essa é que a comunicação é fácil, que a escuta e o interesse sempre existem e que o medo pode ser contornado (Zhuang, 2025). Ainda se sabe pouco sobre os efeitos dessas interações, mas um grande estudo do Instituto de Tecnologia de Massachusetts (mit) descobriram que a tristeza e o isolamento que levam as pessoas a conversar intensamente amplificam essas mesmas emoções, além de reduzir a sociabilidade com outros seres humanos (Fang et al., 2025).

É verdade que, às vezes, a comunicação humana se assemelha a uma pista de obstáculos: ela se baseia na presença de ruídos de conversação, na diferença de perspectivas e opiniões, na negociação de arranjos de tempo e espaço para chegar a um conjunto de acordos e entendimentos mútuos. No entanto, ainda vivemos entre humanos e é inegável a necessidade de nos comunicarmos uns com os outros, ultrapassando todos os tipos de barreiras e diferenças. Se os chatbots podem oferecer algum alívio, ele é claramente contingente; como a própria resposta diz, é uma interação sem subjetividade na qual a afetividade só pode ser encontrada em um dos lados.

Na resposta do ChatGPT-5, fiquei impressionado com a frase “economia emocional dos vínculos humanos”. Depois de fazer algumas pesquisas, descobri que a economia emocional é a conversão de emoções em valores monetários (Alaniz, 2025). Será que para o chatbot nós gerenciamos nossas emoções como bens econômicos no mercado de oferta e demanda ou essa é uma construção inadequada para o contexto?

resposta próxima

Essa é uma pergunta ampla e importante, difícil de responder completamente em um espaço tão curto. Na Universidade de Arkansas, dirijo o projeto “ai e Robots for Connection (arco)”, assim chamada porque minha pesquisa se concentra principalmente em várias formas de conexão e em como a tecnologia facilita tanto a conexão quanto a desconexão. Há décadas, as pesquisas mostram que a tecnologia afeta os laços sociais; o que é relativamente novo agora é que a tecnologia não afeta mais apenas os relacionamentos entre as pessoas, mas permite que elas formem laços sociais mais diretamente com a própria máquina.

Por exemplo, uma pessoa que usa o ChatGPT para escrever digitalmente uma carta de amor que envia para seu parceiro de longa distância ilustra como a tecnologia afeta a comunicação humano-humana, que foi conceituada nos estudos de comunicação como comunicação mediada por ia (comunicação mediada por IA) (Hancock et al., 2020). Por outro lado, uma pessoa que tem um vínculo romântico com o ChatGPT ou acha que recebe apoio social útil do ChatGPT pode ter maior probabilidade de ter um vínculo romântico com o ChatGPT (Hancock et al., 2020). llm ilustra a formação de um vínculo social com a máquina, que foi conceituado como comunicação homem-máquina (comunicação homem-máquina) (Guzmán, 2018).

Assim, para pensar nas consequências do uso de llm em laços sociais, a distinção entre laços humano-humano e humano-máquina pode funcionar como um recurso heurístico útil. Voltando à noção de socialidade artificial (Depounti e Natale, 2025), a llm apenas simulam a conexão humana e não “entendem” o que implica um relacionamento recíproco. Em outras palavras, os llm “improvisam” suas respostas para agradar o usuário. Isso introduz um erro, como visto na resposta do ChatGPT quando o modelo “alucinou” um título incorreto para o texto de Hancock et al. (2020). Na verdade, o artigo tem o título “ai-Comunicação Mediada: Definição, Agenda de Pesquisa e Considerações Éticas” e não inclui o subtítulo “Novos Limites da Vida Relacional” que o ChatGPT sugeriu.

resposta próxima

É uma tecnologia que entrou rapidamente em todos os contextos sociais. Por um lado, ela se tornou um referente compartilhado, ou seja, um dispositivo em torno do qual foram geradas experiências que têm o potencial de influenciar como premissa de verdade em determinadas interações sociais (Bago e Bonnefon, 2024). Por exemplo, costuma-se argumentar que algum fato ou dado é verdadeiro somente porque foi gerado por algum llm. Se antes uma discussão podia ser resolvida por meio de uma pesquisa on-line (e, antes disso, em um livro ou enciclopédia), hoje em dia é comum recorrer-se à ia como uma espécie de mediação de validação em tais interações.

Por outro lado, o ia O processo generativo tornou-se, em alguns grupos, um símbolo de progresso e avanço da humanidade (Horvitz e Mitchell, 2024), enquanto em outros é visto como uma ameaça, especialmente em termos de emprego (Adhikari, 2024), de acordo com um estudo altamente controverso realizado por um departamento da mit (Kosmyna et al., 2025), até mesmo cognitivas. Dessa forma, como aconteceu com outras tecnologias no passado, a ia O fato de a União Europeia ser membro da União Europeia e de seus estados-membros é uma fonte de discordância e, em alguns casos, até mesmo uma possível fonte de confronto.

No nível da construção social da verdade (e da pós-verdade), certos usos do termo ia O processo generativo pode levar à radicalização de grupos antagônicos, em torno de todos os tipos de posições políticas e ideológicas.

resposta próxima

O que podemos esperar do impacto do LLM no trabalho intelectual?

O llm reconfiguram o trabalho intelectual automatizando tarefas que antes eram consideradas exclusivamente humanas, como escrever, sintetizar e buscar padrões argumentativos. Pesquisas recentes mostram que esses modelos podem complementar as habilidades cognitivas em áreas como jornalismo, programação e educação, mas também deslocar formas de trabalho baseadas na produção textual rotineira (Eloundou et al., 2023). [Richard] Susskind e [Daniel] Susskind (2015) argumentam que as profissões são transformadas quando o conhecimento especializado é terceirizado para sistemas formais; nesse sentido, o llm representam uma continuidade dos processos anteriores de desprofissionalização e automação. Entretanto, longe de suplantar a atividade intelectual, a llm são ontologicamente dependentes do trabalho humano: seu treinamento é baseado em corpora escritos e revisados por pessoas. Portanto, o principal impacto não é a substituição total do intelecto humano, mas a redistribuição de valor entre aqueles que projetam modelos, aqueles que fornecem conteúdo a eles e aqueles que interpretam seus resultados.

resposta próxima

Em 2024, o Prêmio Nobel de Física foi concedido a Geoffrey Hinton por ter encontrado um método para as máquinas encontrarem propriedades nos dados de forma autônoma e, assim, realizarem tarefas como a identificação de elementos específicos em imagens. Essa técnica é conhecida como aprendizado de máquina e estabelece a base para a inteligência artificial atual (Iannacone, 2024). Em vista dos riscos apresentados pela ia para substituir o trabalho humano, perguntaram a Hinton quais carreiras ele gostaria de estudar no futuro. Hinton respondeu: “Aprender encanamento”, pois as máquinas ainda não têm a flexibilidade e a adaptabilidade para realizar trabalhos manuais (Li, 2024). Essa é uma resposta extrema e pessimista, mas não há dúvida de que a automação da produção de textos e imagens, bem como a tomada de decisões, está ameaçando o mercado de trabalho para o trabalho intelectual. Esse impacto é muito difícil de quantificar e, ao que parece, variará de acordo com o tipo de sociedade e também com o tipo de trabalho.

Aceitaríamos um algoritmo tomando decisões judiciais quando apenas 1% dos crimes cometidos em um país são solucionados?inegi, Aceitaríamos ser diagnosticados por um sistema automatizado se estivermos grávidas e tivermos que viajar um dia inteiro para chegar a uma clínica obstétrica? Qual é o grau de automação de tarefas que uma sociedade está disposta a aceitar? Grande parte da resposta a essa pergunta está nas escolhas que podemos fazer como indivíduos e coletivos. Talvez substituir nosso trabalho por ia e ser substituído pelo ia como trabalhadores são dois lados da mesma moeda.

Como afirma a resposta do ChatGPT-5, a desprofissionalização e a automação do trabalho estão presentes no capitalismo de plataforma: de influenciadores Desde a produção de conteúdo em massa sem qualificação profissional até algoritmos que gerenciam o trabalho, a variedade de práticas de trabalho automatizadas é significativa o suficiente para indicar uma mudança de época. O que essas práticas confirmam, em contraste com o que o ChatGPT-5 propõe, é que a automação do trabalho apresenta cenários cada vez mais precários. Para citar a resposta, o trabalho do qual “a inteligência artificial depende ontologicamente” é sempre mal remunerado, muitas vezes realizado por migrantes e sistematicamente privado de direitos trabalhistas. Não se trata da distribuição do trabalho, mas de sua precarização (Williams et al., 2022).

resposta próxima

De acordo com a resposta do ChatGPT, o llm estão transformando o trabalho intelectual ao automatizar vários processos de criação de significado que, até muito recentemente, considerávamos profundamente humanos. Essa automação da comunicação tem várias implicações para todas as dimensões da vida social e nos leva a ir além do indivíduo como ponto focal para atender a dinâmicas sociais mais amplas (Hepp et al., 2023). Na imprensa, há uma proliferação de termos sobre “externalização” (terceirização) de nosso trabalho intelectual, educação e trabalho em direção a sistemas de ia, juntamente com discursos sobre o llm Por que produzir algo intelectualmente significativo se o ChatGPT pode fazer isso melhor?

Como a ChatGPT muito bem salienta em sua resposta, o processamento do llm depende inteiramente do trabalho humano. Isso vai além do fato de que o material com o qual qualquer treinamento é realizado llm é o produto do trabalho criativo humano e também inclui o trabalho de dados associado ao processo de treinamento e à curadoria de conteúdo. Julián Posada et al. (2023) mostram como as relações de trabalho e poder estão incorporadas em todo o ciclo de vida da ia, ao colocar os trabalhadores humanos em relação aos sistemas que treinam, personalizam e implantam. Como muitas tarefas de trabalho com dados são terceirizadas para trabalhadores com baixo poder de negociação em diferentes regiões do mundo, a redistribuição do trabalho assume um caráter colonial, impulsionado por lógicas extrativistas que visam aumentar o lucro e a dominação epistêmica (Posada, 2022). Nesse sentido, a llm e outros sistemas de ia transformar o trabalho intelectual e sua dinâmica de trabalho, baseando-se em táticas estabelecidas de terceirização do trabalho por meio de lógicas extrativistas coloniais direcionadas aos trabalhadores de dados (Data Workers’ Inquiry, n. d.).

resposta próxima

Acho que podemos esperar mais ou menos o mesmo que vimos antes com outras tecnologias. Isso significa que, em um extremo, certamente haverá usos acríticos, superficiais, questionavelmente éticos e sem sentido dessa tecnologia no trabalho intelectual; enquanto, no outro, também haverá pessoas que, a partir de abordagens críticas, responsáveis e éticas, conceberão o uso da ia generativo e llm como uma ferramenta que tem o potencial de contribuir para vários efeitos positivos no trabalho intelectual, especialmente no possível aumento da produtividade acadêmica. E, entre esses dois polos, haverá todos os tipos de uso e diferentes níveis de conscientização e reflexividade sobre as limitações e possibilidades dessa tecnologia.

É impossível fazer uma projeção generalizada sobre o impacto da llm no trabalho intelectual. Dependerá do nível de habilidades que se tem para seu uso, dos contextos particulares e axiológicos em que cada pessoa está inserida e até mesmo da intenção de cada pessoa em relação ao uso dessa tecnologia. Em outras palavras, pode ser que, mesmo em indivíduos altamente capacitados, reflexivos e críticos, em algum momento, a ia pode ser usado mais para fins recreativos do que produtivos, independentemente do que isso signifique para todos.

resposta próxima

Bibliografia

Adhikari, Prakash (2024). “Exploring the Nexus between Artificial Intelligence and Job Displacement: A Literature Review”, Journal of National Development, núm. 37(1), pp. 1-13. doi: doi.org/10.62047/jnd.2024.06.30.1

Alaniz, Teresa (2025). “The Emotional Economy: How Emotional Experiences are Becoming the Next Frontier”, Bootcamp. Disponible en: https://medium.com/design-bootcamp/the-emotional-economy-how-emotional-experiences-are-becoming-the-next-frontier-dfbfacfdd8b9

An, Jiafu, Difang Huang, Chen Lin y Mingzhu Tai (2024). “Measuring Gender and Racial Biases in Large Language Models”, pnas Nexus, vol. 4, núm. 3. doi: doi.org/10.48550/arXiv.2403.15281

Bago, Bence y Jean-François Bonnefon (2024). “Generative ai as a Tool for Truth”, Science, núm. 385(6714), pp. 1164-1165. doi: doi.org/10.1126/science.ads0433

Bender, Emily M., Timnit Gebru, Angelina McMillan-Major y Shmargaret Shmitchell (2021). “On the Dangers of Stochastic Parrots: Can Language Models Be too Big?”, Proceedings of the 2021 acm Conference on Fairness, Accountability, and Transparency.

Choi, J. y Nixon, Nia (2025). “Agentic Men, Communal Women? Exploring Gender Bias in llm-based Leadership Identification for Collaboration Analytics”, en Alexandra I. Cristea, Erin Walker, Yu Lu, Olga C. Santos y Seiji Isotani (eds.). Artificial Intelligence in Education. Palermo: Springer, pp. 11-18.

Data Workers’ Inquiry (s.f.). Distributed ai Research Center. Disponible en: https://data-workers.org/

Depounti, Iliana y Simone Natale (2025). “Decoding Artificial Sociality: Technologies, Dynamics, Implications”, New Media & Society, núm. 27(10), pp. 5457-5470. doi: doi.org/10.1177/14614448251359217

Eloundou, Tyna, Sam Manning, Pamela Mishkin y Daniel Rock (2023). “gpts are gpts: An Early Look at the Labor Market Impact Potential of Large Language Models”, OpenAI/ArXiv.

Fang, Cathy M., Auren R. Liu, Valdemar Danry, Eunhaer Lee et al. (2025). “How ai and Human Behaviors Shape Psychosocial Effects of Extended Chatbot Use: A Longitudinal Randomized Controlled Study”, ArXiv. doi: doi.org/10.48550/arXiv.2503.17473

Gunkel, David J. (2025). ai for Communication. Londres: Routledge.

Guo, Yanzhu, Simone Conia, Zelin Zhou, Min Li, Saloni Potdar y Henry Xiao (2024). Do Large Language Models Have an English Accent? Evaluating and Improving the Naturalness of Multilingual llms. doi: doi.org/10.48550/arXiv.2410.15956

Guzman, Andrea L. (2018). “What is Human-Machine Communication, Anyway?”, en Anadrea L. Guzman (ed.). Human-Machine Communication: Rethinking Communication, Technology, and Ourselves. Lausana: Peter Lang, pp. 1-29.

Hanna, John J., Abdi D. Wakene, Andrew O. Johnson, Christoph U. Lehmann y Richard J. Medford (2025). “Assessing Racial and Ethnic Bias in Text Generation by Large Language Models for Health Care-Related Tasks: Cross-Sectional Study”, Journal of Medical Internet Research, núm. 27. doi: doi.org/10.2196/57257

Hancock, Jeffrey T., Mor Naaman y Karen Levy (2020). “ai-Mediated Communication: Definition, Research Agenda, and Ethical Considerations”, Journal of Computer-Mediated Communication, núm. 25(1), pp. 89-100. https://doi.org/10.1093/jcmc/zmz022

Hepp, Andreas, Wiebke Loosen, Stephan Dreyer, Juliana Jarke et al. (2023). “ChatGPT, LaMDA, and the Hype Around Communicative ai: The Automation of Communication as a Field of Research in Media and Communication Studies”, Human-Machine Communication, núm. 6, pp. 41-63. doi: doi.org/10.30658/hmc.6.4

Horvitz, Eric y Tom Mitchell (2024). “Scientific Progress in Artificial Intelligence: History, Status, and Futures”, en Kathleen Hall Jamieson, Anne-Marie Mazza y William Kearney (eds.). Realizing the Promise and Minimizing the Perils of ai for Science and the Scientific Community. Filadelfia: University of Pennsylvania Press, pp. 147-193.

Hu, Krystal (2023, febrero 2). “ChatGPT Sets Record for Fastest-Growing User Base Analyst Note”, Reuters. https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/

Iannaccone, Sandro (2024). “Cómo funcionan las redes neuronales detrás de la ia premiadas con el Nobel de Física 2024″, Wired. Disponible en: https://es.wired.com/articulos/como-funcionan-redes-neuronales-detras-de-ia-premiadas-con-nobel-de-fisica-2024

Instituto Nacional de Estadística y Geografía (2025). “Encuesta Nacional de Victimización y Percepción sobre Seguridad Pública (envipe), Informe de prensa, núm. 127. Disponible en: https://www.inegi.org.mx/contenidos/saladeprensa/boletines/2025/envipe/envipe_25.pdf

Kaplan, Jerry (2024). Generative Artificial Intelligence: What Everyone Needs to Know. Oxford: Oxford University Press.

Kew, Tannon, Florian Schottmann y Rico Sennrich (2024). “Turning English-Centric llms into Polyglots: How Much Multilinguality Is Needed?”, en Yaser Al-Onaizan, Mohit Bansal y Yun Nung Chen (eds.). Findings of the Association for Computational Linguistics. emnlp, pp. 13097-13124.

Kosmyna, Nataliya, Eugene Hauptmann, Ye Tong Yuan, Jessica Situ, Xian Hao Liao, Ashly Vivian Beresnitzky, Iris Braunstein y Pattie Maes (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an ai Assistant for Essay Writing Task. doi: doi.org/10.48550/arXiv.2506.08872

Lai, Emily R. (2011). Critical Thinking: A Literature Review. Pearson’s Research Reports, 6(1), pp. 40-41.

Li, Meng (2024, noviembre 16). “Hinton: Forget ai, Become a Plumber!”, ai Disruption. Disponible en: https://medium.com/ai-disruption/hinton-forget-ai-become-a-plumber-c831603f5e8b

Liu, Zhaoming (2024). “Cultural Bias in Large Language Models: A Comprehensive Analysis and Mitigation Strategies”, Journal of Transcultural Communication. doi: doi.org/10.1515/jtc-2023-0019

Natale, Simone (2021). Deceitful Media: Artificial Intelligence and Social Life after the Turing Test. Oxford: Oxford University Press.

Navigli, Roberto, Simone Conia y Benedetta Ross (2023). “Biases in Large Language Models: Origins, Inventory and Discussion”, acm Journal of Data and Information Quality, pp. 1-21. doi: doi.org/10.1145/3597307

Otaki, Bunichi (2023). “Feedback in the Era of Generative ai“. Tesis de maestría. Universidad de Gothenburgo.

Posada, Julián (2022). “The Coloniality of Data Work: Power and Inequality in Outsourced Data Production for Machine Learning”, tesis de doctorado. Toronto: University of Toronto.

— Gemma Newlands y Milagros Miceli (2023). “Labor, automation, and human-machine communication”, en Andrea L. Guzman, Steve Jones y Rhonda McEwen (eds.). The Sage Handbook of Human-Machine Communication. Sage, pp. 384-391.

Radford, Alec, Karthik Narasimhan, Tim Salimans e Ilya Sutskever (2018). Improving Language Understanding by Generative Pre-training. Disponible en: https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf

Reuters (2025, diciembre 17). “OpenAI Discussed Raising Tens of Billions at About $750 Billion Valuation, the Information Reports”. Disponible en: https://www.reuters.com/technology/openai-discussed-raising-tens-billions-valuation-about-750-billion-information-2025-12-18/

Schiller, Dan (1999). Digital Capitalism: Networking the Global Market System. Cambridge: mit Press.

Seaver, Nick (2017). “Algorithms as Culture”, Big Data & Society, núm. 4(2), pp. 1-12.

Seth, Agrima, Monojit Choudhury, Sunayana Sitaram, Kentaro Toyama, Aditya Vashistha y Kalika Bali (2025). “How Deep Is Representational Bias in llms? The Cases of Caste and Religion”, Proceedings of the aaai/acm Conference on ai, Ethics, and Society, núm. 8(3), pp. 2319-2330. doi: doi.org/10.1609/aies.v8i3.36718

Susskind, Richard y Daniel Susskind (2015). The Future of the Professions. Oxford: Oxford University Press.

Turkle, Sherry (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. Basic Books.

Vizcaya, Emmanuel (2025, 21 de enero). Aproximaciones al artificeno, núm. 404. Disponible en: https://centroculturadigital.mx/revista/aproximaciones-al-artificeno

Williams, Adrienne, Milagros Miceli y Timnit Gebru (2022). “The Exploited Labor Behind Artificial Intelligence”, Noema. Disponible en: https://www.noemamag.com/the-exploited-labor-behind-artificial-intelligence

Zhuang, Yan (2025). “Why We Tell ai Our Stories: Exploring Motivations, Perceptions, and Impact of Interactions with ChatGPT”. Tesis de maestría. Uppsala: Uppsala Universitet. Disponible en: https://www.diva-portal.org/smash/get/diva2:1976495/fulltext02.pdf


Gabriela processada é um pesquisador de pós-doutorado secreto no iimas-unam e palestrante na Escola de Pós-Graduação em Ciências Políticas e Sociais da Universidade de São Paulo. unam. PhD em Estudos Humanísticos e MSc em Ciência, Tecnologia e Sociedade; membro do snii. Sua pesquisa atual analisa o desenvolvimento da inteligência artificial no México a partir da perspectiva da cts. Em sua pesquisa, ela também estuda dados e plataformas digitais, sistemas automatizados e suas implicações socioculturais, bem como as relações entre gênero, ciência e tecnologia. Ela é autora de vários artigos científicos e capítulos de livros publicados nacional e internacionalmente.

Gabriel Pérez Salazar tem doutorado em Ciências Políticas e Sociais e mestrado em Comunicação pela unam. Ele tem mais de 20 anos de experiência como professor em três instituições de ensino superior: unam, uacm e uadec, em nível de graduação e pós-graduação. Membro do snii nível ii. Autor de mais de 75 artigos científicos publicados nacional e internacionalmente. Uma de suas linhas de pesquisa atuais tem a ver com as dimensões éticas e culturais da inteligência artificial generativa; ele publicou oito artigos sobre esse tópico, incluindo o livro Uso do ChatGPT e outros llmOs aspectos mais importantes dos ambientes educacionais são os seguintes (Endora Ediciones, 2023). Desde 2023, ele ministrou 27 palestras, conferências e workshops sobre inteligência artificial em 23 instituições no México e três no exterior. Atualmente, é professor-pesquisador em tempo integral na Faculdade de Ciências da Comunicação da Universidade Autônoma de Coahuila.

Marco Dehnert D. pela Universidade Estadual do Arizona. Ele é professor assistente de comunicação e tecnologia na Universidade de Arkansas. Ele dirige o ai e Robots for Connection (arco) no Centro de Pesquisa em Comunicação. Ele é um estudioso de vários métodos que estuda a comunicação homem-máquina, a comunicação humana e a comunicação homem-mídia.ia e o impacto social das tecnologias de comunicação. Os resultados de sua pesquisa foram publicados em volumes e revistas acadêmicas revisadas por pares, incluindo Human-Machine Communication, Pesquisa sobre comunicação humana e o Revista Internacional de Robótica Social, entre outros. No centro de seu trabalho estão questões sobre a conexão profundamente humana por meio da tecnologia, incluindo intimidade, relacionamentos e comunicação entre máquinas e seres humanos. Mais informações estão disponíveis em seu site.

Arthur Temporário é um pesquisador social brasileiro, mestre em Comunicação pela Universidade de Guadalajara com a tese “O habitus e as práticas de trabalho digital na ciência” (2025). É especialista em comunicação digital, filosofia marxista e pós-estruturalismo. Trabalhou como editor científico em revistas mexicanas de estudos socioculturais e atualmente é professor de Ciências Econômicas e Sociais no Colégio Franco-Mexicano de Guadalajara.

Alina Peña Iguarán é professor pesquisador em tempo integral no Departamento de Estudos Socioculturais da iteso, Universidade Jesuíta de Guadalajara. Coordena a Unidade Acadêmica Básica Sentido, Poder e Cultura Sociodigital. Atualmente dirige o projeto de pesquisa “Práticas intermidiáticas, gramáticas da memória e violência”.

Ignacio Salvador Durán Ricardez é psicóloga social e doutora em Ciências Sociais com especialização em Antropologia Social; bolsista de pós-doutorado na linha de Culturas e Identidades Contemporâneas na ciesas Oeste. Suas linhas de pesquisa incluem identidade e reconfigurações subjetivas em face dos processos de mudança sociocultural.

Assinatura
Notificar
guest

0 Comentários
Feedbacks do Inline
Ver todos os comentários

Instituições

ISSN: 2594-2999.

encartesantropologicos@ciesas.edu.mx

Salvo indicação expressa em contrário, todo o conteúdo deste site está sujeito a um Creative Commons Atribuição- Licença Internacional Creative Commons 4.0.

Download disposições legais completo

Encartes, Vol. 9, No. 17, março de 2026-agosto de 2026, é uma revista acadêmica digital de acesso aberto publicada duas vezes por ano pelo Centro de Investigaciones y Estudios Superiores en Antropología Social, Calle Juárez, No. 87, Col. Tlalpan, C. P. 14000, Cidade do México, P.O. Box 22-048, Tel. 54 87 35 70, Fax 56 55 55 76, El Colegio de la Frontera Norte Norte, A. C.., Carretera Escénica Tijuana-Ensenada km 18,5, San Antonio del Mar, núm. 22560, Tijuana, Baja California, México, Tel. +52 (664) 631 6344, Instituto Tecnológico y de Estudios Superiores de Occidente, A.C., Periférico Sur Manuel Gómez Morin, núm. 8585, Tlaquepaque, Jalisco, tel. (33) 3669 3434, e El Colegio de San Luís, A. C., Parque de Macul, núm. 155, Fracc. Colinas del Parque, San Luis Potosi, México, tel. (444) 811 01 01. Contato: encartesantropologicos@ciesas.edu.mx. Diretora da revista: Ángela Renée de la Torre Castellanos. Hospedada em https://encartes.mx. Responsável pela última atualização desta edição: Arthur Temporal Ventura. Data da última atualização: 20 de março de 2026.
pt_BRPT