DOI: https://doi.org/10.35699/2237-5864.2025.59094
Seção especial: IA nos processos de ensino-aprendizagem
Entre
a técnica e a política: inteligência artificial e ensino superior
— entrevista com o Prof. Dr. Rafael Evangelista
Entre
la técnica y la política: inteligencia artificial y educación
superior — entrevista con el Prof. Dr. Rafael Evangelista
Between technique and politics: artificial intelligence and higher education — interview with Prof. Dr. Rafael Evangelista
Rafael de Almeida Evangelista,1 Leonardo Ribeiro da Cruz2
RESUMO
Rafael Evangelista é doutor em Antropologia Social pela Universidade Estadual de Campinas (Unicamp), onde atua como professor e pesquisador no Laboratório de Estudos Avançados em Jornalismo (Labjor). É cofundador da Rede Latino-Americana de Estudos sobre Vigilância, Tecnologia e Sociedade (Lavits) e integra o Comitê Gestor da Internet no Brasil (CGI.br) como representante da comunidade científica e tecnológica, contribuindo ativamente para debates sobre regulação, soberania digital e tecnologias da informação. Nesta entrevista, conduzida pelo doutor Leonardo Ribeiro da Cruz, Rafael Evangelista reflete sobre os impactos da inteligência artificial no ensino superior, abordando seus efeitos sobre o trabalho docente, a formação estudantil e a autonomia das instituições. Ele critica a adoção apressada e acrítica dessas tecnologias, destacando a perda de habilidades humanas e o risco de um avanço da lógica mercantilista na educação. Evangelista defende ainda a necessidade de apropriação tecnológica pública e comunitária como caminho para uma relação mais consciente e soberana com a inteligência artificial.
Palavras-chave: inteligência artificial; educação superior; soberania digital; apropriação tecnológica comunitária.
RESUMEN
Rafael Evangelista es doctor en Antropología Social por la Universidad Estatal de Campinas (Unicamp), donde actúa como profesor e investigador en el Laboratorio de Estudios Avanzados en Periodismo (Labjor). Es cofundador de la Red Latinoamericana de Estudios sobre Vigilancia, Tecnología y Sociedad (Lavits) e integra el Comité Gestor de Internet de Brasil (CGI.br) como representante de la comunidad científica y tecnológica, contribuyendo activamente en los debates sobre regulación, soberanía digital y tecnologías de la información. En esta entrevista, realizada por el doctor Leonardo Ribeiro da Cruz, Rafael Evangelista reflexiona sobre los impactos de la inteligencia artificial en la educación superior, abordando sus efectos sobre el trabajo docente, la formación estudiantil y la autonomía de las instituciones. Critica la adopción apresurada y acrítica de estas tecnologías, destacando la pérdida de habilidades humanas y el riesgo de un avance de la lógica mercantil en la educación. Evangelista también defiende la necesidad de una apropiación tecnológica pública y comunitaria como camino hacia una relación más consciente y soberana con la inteligencia artificial.
Palabras clave: inteligencia artificial; educación superior; soberanía digital; apropiación tecnológica comunitaria.
ABSTRACT
Rafael Evangelista holds a PhD in Social Anthropology from the University of Campinas (Unicamp), where he works as a professor and researcher at the Laboratory for Advanced Studies in Journalism (Labjor). He is a co-founder of the Latin American Network of Studies on Surveillance, Technology, and Society (Lavits) and serves on the Brazilian Internet Steering Committee (CGI.br) as a representative of the scientific and technological community, actively contributing to debates on regulation, digital sovereignty, and information technologies. In this interview, Rafael Evangelista reflects on the impacts of artificial intelligence on higher education, discussing its effects on academic work, student training, and institutional autonomy. He criticizes the hasty and uncritical adoption of these technologies, highlighting the loss of human skills and the risk of deepening the commodification of education. Evangelista also advocates for public and community-based technological appropriation as a path toward a more conscious and sovereign relationship with artificial intelligence.
Keywords: artificial intelligence; higher education; digital sovereignty; community-based technological appropriation.
APRESENTAÇÃO
A entrevista a seguir apresenta uma rica reflexão com o professor e pesquisador Rafael Evangelista, doutor em Antropologia Social pela Unicamp e membro do Comitê Gestor da Internet no Brasil (CGI.br). Com trajetória consolidada nas investigações sobre tecnologia, poder e sociedade, ele é também cofundador da Rede Latino-Americana de Estudos sobre Vigilância, Tecnologia e Sociedade (Lavits), atuando ativamente nos debates sobre soberania digital, regulação das plataformas e apropriação tecnológica. Sua análise crítica das transformações digitais parte de uma perspectiva que articula técnica, política e cultura, colocando em foco os impactos sociais da digitalização. Evangelista investiga as implicações políticas e culturais das tecnologias (2018, 2025), destacando-se por suas análises sobre a ética hacker (2018), a democratização do conhecimento científico (2024) e a produção tecnológica e os impactos sociais e políticos das plataformas digitais (2023, Evangelista; Cruz, 2024).
Nesta entrevista, ele dialoga com o pesquisador Leonardo Ribeiro da Cruz, seu colega de pesquisa e orientando durante um estágio pós-doutoral no Laboratório de Estudos Avançados em Jornalismo (Labjor) da Unicamp. Leonardo Cruz é coordenador do Observatório Educação Vigiada, que produz pesquisas sobre a plataformização do ensino público superior no Brasil, na América Latina e na África (PARRA et al ., 2018; Cruz; Amiel; Saraiva, 2019; Cruz; Venturini, 2020; Cruz et al ., 2025).
Nesta conversa, Evangelista discute os efeitos da inteligência artificial (IA) no ensino superior, apontando como sua adoção acelerada e acrítica pode aprofundar processos de mercantilização da educação, precarizar o trabalho docente e esvaziar a formação crítica dos estudantes. A entrevista também propõe pensar formas alternativas de lidar com essas tecnologias, ressaltando a importância de projetos públicos, comunitários e contextualizados.
Mais do que rejeitar a IA, Evangelista defende a necessidade de desenvolver uma relação consciente com ela, que preserve a autonomia institucional e favoreça a construção coletiva de conhecimento.
ENTREVISTA
Rafael, a primeira questão sobre a qual eu gostaria de conversar com você diz respeito à definição de inteligência artificial, que virou um termo propaganda de tipos muito genéricos de tecnologias. A partir dela, criou-se um mercado que direciona uma parte dos investimentos do desenvolvimento tecnológico. Como você definiria inteligência artificial em termos de tecnologia e de uma mercadoria criada nesse processo tecno produtivo do capitalismo digital?
Acho que o ponto de partida pode ser justamente questionar um lugar-comum: a ideia de que inteligência artificial não é, de fato, inteligente. É interessante, nesse sentido, retomarmos a noção de inteligência da cibernética, que nasce com a própria cibernética, esse campo interdisciplinar surgido no pós-guerra, profundamente influente nas ciências e na tecnologia.
A cibernética definia inteligência como a capacidade de, a partir de dois pontos conhecidos, presumir um terceiro. Essa ideia foi formulada com base no desenvolvimento de sistemas antimísseis: a partir da posição do míssil no ponto A, e depois, no ponto B, era possível prever sua posição futura, no ponto C, e assim direcionar o antimíssil para interceptá-lo. Essa antecipação é a base do que se chama de inteligência na cibernética.
Essa perspectiva é central para entendermos o que hoje se chama de inteligência artificial. O termo “IA” surge quando, por razões políticas, especialmente conservadoras, um grupo se distancia da tradição cibernética e passa a construir um campo próprio. Então, antes de qualquer definição técnica, é importante lembrar que IA é fruto de uma dissidência política, de um grupo que tinha menos restrições aos usos militares e aos impactos das tecnologias.
Pensando assim, para mim, inteligência artificial é essencialmente uma tecnologia de antecipação. A partir do processamento de dados, ela constrói previsões. Mesmo o “jogo da imitação”, proposto por Turing, 3 envolve prever a resposta que se espera de um ser humano. É uma simulação de comportamento.
Sobre o segundo ponto, não sei se classificaria a IA como uma mercadoria em si. O que ela oferece é uma capacidade de emulação que depende, antes, de processos de extração, como ocorre, por exemplo, com o ChatGPT. O sistema aprende a partir da extração de padrões da linguagem. Esses padrões, uma vez modelados, permitem que ele produza algo que se assemelha ao que um humano diria. E, ao acoplar essa simulação a outras funcionalidades, como um motor de busca, o que temos não é apenas uma imitação da fala humana, mas um produto que entrega resultados com valor de mercado. É aí que ela se torna mercantilizável.
E tem uma outra questão importante: quando a gente insiste em negar que há inteligência nessas tecnologias, corremos o risco de subestimá-las e, com isso, deixamos de enfrentá-las politicamente como deveríamos.
Lembro de quando comecei a dar aulas de jornalismo, depois do doutorado, em 2012 ou 2013, talvez um pouco mais tarde. Encontrei um texto que achei interessante discutir com os alunos, que já falava sobre o uso de ferramentas de inteligência artificial para escrever textos jornalísticos. Naquela época, elas ainda se baseavam em estruturas muito simples, por exemplo, transformando dados estatísticos de partidas esportivas em notícias automatizadas.
A reação dos alunos, no entanto, foi de descrédito. Eles enxergaram aquilo como algo de ficção científica, como se fosse improvável que se tornasse uma realidade concreta. Mas isso foi há pouco mais de dez anos, e hoje vemos que boa parte da produção jornalística mais padronizada, aquela que segue estruturas previsíveis, já pode ser automatizada com relativa facilidade. Não estou dizendo que a profissão vai desaparecer, porque há muito mais envolvido no fazer jornalístico, mas é um tipo de linguagem que se tornou facilmente replicável, porque o jornalismo se tornou padronizado e muito previsível. O formato é muito fácil de ser copiado.
Sobre a segunda parte da questão e essa ideia da mercadoria, eu concordo que é uma questão complexa. A ideia era inserir a tecnologia de IA no processo produtivo real que está acontecendo com, por exemplo, o crescimento da OpenAI e o surgimento de um novo bilionário da tecnologia, inserido nessa rota da política tecnológica dos Estados Unidos com o Donald Trump.
Tem um gancho interessante aí, que gosto de explorar a partir dos conceitos do Eric Wolf 4 (1999). Ele propõe a distinção entre dois tipos de poder: o estrutural e o organizacional.
O poder estrutural faz referência justamente ao quanto você é capaz de convencer a sociedade a fazer determinados investimentos, direcionar o sistema produtivo para determinados lugares — de orientar investimentos, organizar setores inteiros da economia. Já o organizacional se refere a um nível mais restrito, à capacidade de agir e controlar contextos específicos em que as ações dos sujeitos se expressam.
Essa distinção me ajuda a pensar o fenômeno da inteligência artificial, porque a IA, antes de tudo, é objeto da ficção há mais de um século. Ela está profundamente enraizada no nosso imaginário. E esse imaginário é constantemente mobilizado para atrair investimentos. A OpenAI é um exemplo claro: o que há em torno dela é altamente especulativo. Ela opera segundo a lógica do capitalismo atual, em que o valor está mais na promessa do que na entrega.
Quem conta a melhor história, a mais convincente, a mais empolgante, consegue captar investimentos. Essa narrativa gera um fluxo de capital que, por sua vez, torna real a promessa: com dinheiro suficiente, é possível construir algo próximo do que se previu. Isso gera valorização de ações, mesmo sem lucros concretos. O lucro está no valor especulativo, na expectativa.
É nesse ponto que a IA se torna uma profecia autorrealizável. Ela se alimenta dos nossos desejos, utópicos ou distópicos, por automação no curto prazo, mas também pela tal inteligência artificial geral. Esses desejos são explorados ativamente pelo mercado, e o processo acaba funcionando mais como um jogo de expectativas do que como um planejamento racional. O investimento não vem apenas de uma avaliação técnica, mas da crença de que essa é a próxima fronteira.
O uso crescente e indiscriminado de tecnologias de inteligência artificial na educação superior tem levado muitos professores a adaptar seus métodos de ensino e avaliação de forma rápida, muitas vezes sem orientação adequada. Queria saber como você enxerga esse cenário de mudança acelerada no campo educacional, muitas vezes sem orientação.
Olha, é algo que está relacionado aos sistemas de avaliação que temos até hoje e dos modos como desenvolvemos esses sistemas de avaliação. Não só de avaliação, mas os sistemas de educação mesmo. O processo a que fomos submetidos na nossa formação e que procuramos submeter os nossos alunos, de desenvolvimento de certas habilidades, mas que acabam… eu não quero dizer “ficam caducos”, mas ficam ultrapassados, de certa forma, e somos obrigados a criar outros modelos de uma maneira muito rápida, sem estarmos muito preparados. Me parece que a gente tem um esgotamento dessa nossa capacidade de conseguir desenvolver processos que têm a ver com essas habilidades humanas, não é?
É muito maluca essa história toda, porque essa é uma tecnologia de extração não só do que está dado, do que já foi produzido. Ela está extraindo também o futuro, a capacidade de produzir. Então é uma extração não só do que já foi produzido, porque esse material é lido para daí gerar o modelo de IA, mas quando ela é acoplada muito rapidamente, ela extrai as nossas próprias capacidades [humanas]. Ela rouba, ela nos tira a posse. É uma despossessão dos caminhos que a gente tinha para desenvolver essas habilidades. Porque a gente está numa estrutura que é altamente competitiva, não é? O nosso tempo é alvo de disputa.
Então a gente quer diminuir o tempo em fazer certas tarefas e o atalho é usar a própria IA. Não vou ser hipócrita, eu estou usando a IA para escrever papers . Não estou mandando escrever o paper , mas eu estou usando como eu usava uma ferramenta de busca. Em um certo momento passamos a usar as ferramentas de busca, e abandonamos a busca na biblioteca, fomos fazer as buscas na internet. Agora, a gente está abandonando as buscas do modo como a gente fazia na internet e estamos buscando com a IA. Estamos relendo textos, no processo de produção científica, com o auxílio da IA, numa relação de leitura com ela.
O interessante seria desenvolver essa relação com a IA, a habilidade também de se relacionar com ela, junto com os alunos. Mas, como estamos numa sociedade que é altamente competitiva e os métodos também são muito competitivos e restritos, em termos de tempo, criamos esse jogo de gato e rato em que professores tentam não ser tapeados por alunos que estão numa relação pobre com a IA. Só que o aluno não está vendo que ele está perdendo a oportunidade de desenvolver uma habilidade, porque essa habilidade está sendo sequestrada pela própria máquina ao se colocar como capaz de escrever por você.
Eu digo isso não no sentido de uma condenação meio babaca, não é uma condenação. É compreensível, porque está todo mundo tentando fazer muito ao mesmo tempo, porque a gente está sendo cobrado para fazer muito ao mesmo tempo. Os alunos, eles podem até ter bolsa, mas estão o tempo inteiro arrumando trabalhos freelancer num mercado de trabalho que ficou completamente fragmentado por pequenas tarefas. Então eles agora têm essa possibilidade de ficar fazendo vários freelas e que tomam tempo. Os outros, que não têm bolsa, têm menos tempo ainda. E o professor fica disputando esse tempo do aluno, que usa a IA para fazer o trabalho por eles.
Agora, são experiências que a gente vai perdendo. Assim como a gente tem perdido, por exemplo, a experiência de deslocamento na cidade, que não conseguimos mais navegar sem usar um GPS. Claro que dá muito mais trabalho e eu não estou dizendo para não utilizar o GPS, mas a gente precisa reconhecer que perdemos a capacidade de nos guiarmos usando as placas, não é? E as placas começam a desaparecer também, porque só os antigos é que usam as placas. E aí é uma imagem muito interessante para a gente falar assim: olha, a gente já era guiado por alguma coisa, e aquelas coisas que nos guiavam desaparecem, porque tudo acaba decantando para um tipo de direcionamento que é o das tecnologias digitais. Mas, de fato, a gente vai ter que reinventar as nossas estratégias de desenvolvimento de habilidades, de repassar o que nos foi ensinado. E não vai ser rápido, porque é um processo lento de desenvolvimento de um uso produtivo da IA. Até a gente conseguir pensar, experimentar, ver o que funciona nas turmas... Então não quero ser saudosista, mas são tempos difíceis. São tempos que bagunçam muito o que estava posto, não é?
Sim. Sobre isso, há duas questões que eu acho interessantes. A primeira é a ideia dessa velocidade, porque ela reflete os problemas da nossa relação com a produção tecnológica, já que é uma mudança acelerada por uma demanda que não é educacional ou pedagógica, mas sim uma demanda do capitalismo. E então, essa “bomba explode em nossas mãos”, como professores, porque não há orientação. Nem eu, como pesquisador de sociologia da tecnologia, consigo explicar adequadamente. Posso criticar a OpenAI e o desenvolvimento tecnológico, mas, pedagogicamente, ainda estou tentando entender. Precisamos de tempo para isso, mas esse tempo já não existe. A segunda questão interessante no que você falou é a substituição de nossas capacidades pelas tecnologias de inteligência artificial, impulsionada pela competitividade crescente, pela falta de tempo para realizar processos, entre outros fatores. No entanto, isso já vinha ocorrendo antes mesmo das tecnologias de IA, com o sucateamento das universidades, a redução de bolsas, o aumento do custo de vida dos alunos etc. Assim, as tecnologias acabam sendo uma resposta a um problema que já estava criado. Foi uma brecha que se abriu e que agora não conseguimos mais fechar.
Isso. E perder habilidades é algo… não vou dizer natural, mas recorrente. Algumas a gente até aceita perder, mas outras têm relação direta com o nosso processo de criação, e aí a coisa complica. Por exemplo, eu posso até considerar supérflua a capacidade de me orientar na cidade. Tudo bem, embora eu sempre ache importante saber onde estou, não depender completamente da tecnologia. Agora, perder a capacidade de escrever, de escrever bem, com clareza, com estrutura… ou a capacidade de ler um autor e fazer inferências a partir da leitura. Isso é mais sério.
Porque hoje os sistemas fazem inferências por você. Se você joga um PDF em um ChatGPT da vida, ele te entrega uma leitura do texto, uma interpretação. E, por mais que aquilo pareça só uma sugestão, é uma comunicação. E toda comunicação tem o potencial de influenciar. Aos poucos, você começa a se deixar levar por aquelas inferências, mesmo sem perceber. Isso é delicado, porque está relacionado diretamente com o nosso ofício. Com a nossa capacidade humana de tomar decisões, estabelecer relações e construir raciocínios próprios.
E tem mais: mesmo que a gente não pense a inteligência artificial como um “outro” — no sentido de um outro humano —, o tempo todo estamos dialogando com ela como se fosse. É um diálogo com algo que, para a gente, é em boa parte um mistério. Aí começamos a especular: como é que a IA chegou naquele resultado?
E isso não vale só para o ChatGPT. Pense nos sistemas de recomendação. Eles também se baseiam em IA. A partir do nosso histórico de consumo ou comportamento, eles constroem suposições sobre o que vamos querer no futuro. Estão o tempo inteiro sugerindo coisas, e a gente nem sabe exatamente como chegaram àquelas sugestões. Aí vem a dúvida: será que o sistema ouviu o que eu falei no bar? Começamos a criar teorias, porque o funcionamento desses sistemas não é transparente. É autoritário. A gente não tem controle, não tem acesso, não tem como abrir essa caixa-preta.
O entusiasmo generalizado pelas possibilidades da inteligência artificial muitas vezes leva à adoção acrítica dessas tecnologias. Eu gostaria de saber como você analisa essa corrida pela implementação da IA na educação, principalmente no ensino superior, que frequentemente ocorre antes mesmo de discutirmos regulamentações ou comprovações pedagógicas.
A adoção da inteligência artificial poderia ter um propósito interessante se fosse feita a partir de uma perspectiva crítica. Se estivéssemos realmente dispostos a analisar os impactos dessas tecnologias, a pensar em como nos relacionar com eles, talvez conseguíssemos integrá-las de forma mais consciente ao nosso cotidiano. Infelizmente, o que prevalece é uma lógica de não “perder o bonde”. Estamos constantemente sendo pressionados pela ideia de que precisamos embarcar, mesmo sem saber exatamente para onde esse bonde está indo, ou se vale a pena, de fato, embarcar.
Isso se agrava no campo da educação, que vem sofrendo um verdadeiro assalto por parte do setor privado, algo que não começou agora. Desde as rodadas da Organização Mundial do Comércio, como a de Cancún, já havia pressão do grande capital para incluir saúde e educação nos acordos de livre comércio. A percepção era de que o modelo de capitalismo do século XX estava se esgotando, e que os serviços, como saúde e educação, seriam a próxima mercadoria a ser explorada.
Para que isso aconteça, é preciso transformar o setor educacional. Deixa-se de lado a lógica da formação cidadã para se adotar uma lógica empresarial. Os chamados “pacotes educacionais” vêm com essa proposta: padronizar processos, resultados, métricas. E a inteligência artificial se encaixa perfeitamente nisso, porque ela só opera bem em contextos altamente padronizados.
Volto ao exemplo do jornalismo: a IA consegue replicar com eficiência apenas o jornalismo mais previsível, mais formatado. O mesmo se aplica à educação. Para que a IA funcione, é preciso padronizar a aprendizagem, os estudantes e os seus desempenhos. E aí se cria um produto que pode ser vendido: um pacote educacional.
Nesse ponto, voltamos ao que eu vinha dizendo sobre despossessão e extração. A IA precisa ser entendida como uma máquina, como as da fábrica. O trabalhador, no início, fazia seus movimentos manuais. A máquina foi desenhada para copiar esses movimentos, quem a desenha foi observando e extraindo essa habilidade. A IA faz o mesmo com a produção informacional: observa os padrões, os replica e, ao fazer isso, transfere para si uma competência que antes era exclusiva do trabalhador — ou, nesse caso, do professor, do estudante.
Fiz aqui o paralelo com a fábrica, mas a educação deveria ser muito mais do que isso. Ela é, ou deveria ser, o espaço de formação de sujeitos, de cidadãos. Pessoas que, ao saírem da escola ou da universidade, tenham condições de intervir no mundo, de transformá-lo. O problema é que, se o processo formativo passa a ser inteiramente controlado por parâmetros definidos por máquinas, ou por métricas desenhadas para alimentar essas máquinas, o que se retira é a autonomia pedagógica. É o poder do professor de decidir, em diálogo com os conteúdos e com os parâmetros institucionais, qual é a melhor forma de formar esse sujeito.
Quando a educação se torna apenas mais uma engrenagem do processo produtivo, ela deixa de formar cidadãos para formar operadores da máquina: trabalhadores que atuam no ritmo ditado pela própria lógica automatizada.
No processo produtivo, o trabalhador não se torna irrelevante de forma imediata, substituído de uma hora para outra pela máquina. O que ocorre é um processo gradual. Inicialmente, o trabalhador ainda é necessário para operar, monitorar e corrigir a máquina. Ele observa se ela está reproduzindo corretamente os padrões esperados, intervém quando há desvios, ajusta o funcionamento. Mas, pouco a pouco, essa capacidade de identificação, correção e regulação vai sendo incorporada pela própria máquina. É aí que entra a inteligência artificial — o loop de feedback da cibernética, que permite à máquina se autorregular.
As tecnologias da informação intensificam esse processo, levando-o a um novo patamar. E é interessante pensar isso a partir da figura do trabalhador de plataforma: o motoboy que entrega comida, o motorista de Uber. Eles ainda são necessários porque o trânsito, como sistema, é imprevisível. A qualificação deles está em conseguir ler essas irregularidades e encontrar soluções para realizar a entrega.
Agora, compare isso ao que era o trabalho do taxista. O taxista se orientava pela experiência e pelo conhecimento direto da cidade. Já o motorista de Uber depende integralmente do GPS. Ou seja, o Uber só se tornou possível depois que outras tecnologias já haviam capturado essa capacidade de orientação. A lógica é a mesma na educação: só se consegue aplicar IA de maneira eficiente na sala de aula porque, antes, já se sequestraram certas capacidades — como ler, interpretar, buscar — que agora podem ser simuladas ou substituídas por sistemas automatizados.
Há um aspecto muito interessante nisso, que remete ao primeiro livro de Zuboff 5 [ In The Age of the Smart Machine , 1988], no qual ela argumenta que a digitalização do trabalho representa a conclusão da transferência do conhecimento sobre o trabalho – do trabalhador para o empresário, por meio das máquinas. Retomando o que você disse sobre as capacidades que estão sendo transferidas para os algoritmos e tecnologias de IA: são justamente as habilidades que adquirimos na universidade – a capacidade de leitura crítica, de escrita, de expressão por meio do texto, além do conhecimento formal que aprendemos – que agora estão sendo transferidas para a inteligência artificial.
Você lembrou da Zuboff, é aquela coisa: o que você consegue informatizar é o que você usa para automatizar. Então, na verdade, na fábrica ou no escritório, você precisou fazer uma leitura informacional dos processos e a leitura informacional dos processos alimentou mais a automação e assim, progressivamente, a gente pode levar isso para a sala de aula, não é? Quando a gente digitalizou toda a nossa produção, foi aberta a possibilidade para que isso fosse automatizado. E esse par “informatizar e automatizar” é muito poderoso até hoje, pensando que o livro dela é dos meados dos anos de 1980.
Quais critérios você considera essenciais para evitar que esses modismos tecnológicos prevaleçam sobre aplicações realmente significativas da tecnologia no processo de aprendizagem?
Essa é uma questão difícil, porque envolve distinguir entre o que está sob nosso controle e o que está além dele. De um lado, é preciso reconhecer que há processos maiores, que não conseguimos conter completamente. Mas isso não significa que devemos abrir mão dos espaços em que ainda podemos agir.
Em vez de nos rendermos aos modismos só porque algumas coisas parecem inevitáveis, talvez devêssemos nos concentrar em identificar o que ainda está ao nosso alcance e criar zonas de refúgio. Não estou falando de isolamento, mas de espaços em que possamos operar sob outras regras, com outros valores.
Pense, por exemplo, na proibição dos celulares nas escolas. 6 Essa decisão veio como resposta a um pânico social, e, de fato, trouxe efeitos positivos: facilitou a vida do professor, reduziu distrações, transformou a escola em um lugar minimamente protegido do bombardeio tecnológico. Mas, ao mesmo tempo, deixou-se de preparar os estudantes para lidar criticamente com os dispositivos. Ignoramos a necessidade de educá-los para usar a tecnologia de forma produtiva, em situações reais, nas quais o uso das tecnologias da informação será inevitável.
A questão, então, não é adotar uma postura de negação nem uma entrega cega. Não se trata de proibir tudo nem de capitular com frases como “já que não tem jeito, vamos abandonar a escola, as instituições, tudo isso acabou”. Se fizermos isso, o que perdemos são justamente os espaços que ainda nos permitem cultivar nossa humanidade — espaços onde podemos desenvolver nossas habilidades e também ajudar os outros a desenvolverem as suas.
Quais problemas educacionais você acredita que a IA pode realmente resolver de forma efetiva?
Eu não sei se a inteligência artificial ajuda, de fato, em alguma coisa essencial. Não consigo pensar em nada em que ela realmente contribua no sentido de desenvolver uma habilidade. O que ela faz é acelerar. Pode te ajudar a escrever um texto, por exemplo, mas esse “ajudar” precisa ser entendido de forma bem pragmática. Ela pode revisar um texto em inglês, corrigir erros, deixá-lo mais apresentável. Em vez de você enviar para um revisor e gastar com isso, você faz mais rápido, mais barato.
Também pode te ajudar a reler um livro, um que você já leu e quer revisitar, ou fazer uma busca mais eficiente. Mas tudo isso está muito ligado à ideia de aceleração. São momentos em que, idealmente, você desenvolveria uma capacidade, mesmo que seja chato reler um livro, ainda assim é uma experiência formativa.
Só que vivemos uma era em que temos pouquíssima tolerância ao que é enfadonho. A impressão é que precisamos estar entretidos o tempo todo. E isso faz com que a gente busque acelerar todos os processos que envolvem esforço. Pode até parecer positivo: você torna a relação com o conteúdo mais leve, mais acessível. Mas não sei até que ponto isso é bom, necessariamente.
As tecnologias de digitalização que tornaram a IA possível nos deram acesso a um volume imenso de informação. É um acesso precioso à literatura, à arte, a textos, a imagens. Só que esse acesso veio junto com um problema: a gente não tem mais tempo para usufruí-lo, porque o próprio mundo roubou esse tempo.
O que me parece mais valioso é justamente esse acesso, essa abertura. Mas, como ferramenta, a IA opera quase sempre na lógica de fazer por você, em vez de te ajudar a desenvolver uma habilidade. Mesmo escrever um texto em inglês: se você faz o esforço sozinho, melhora seu domínio do idioma. Se você pensa a tarefa de escrever um artigo como parte de um processo formativo — para contribuir com a literatura internacional, por exemplo —, isso é desenvolvimento.
Mas se você precisa abrir mão disso por falta de tempo, tudo bem. A IA te ajuda a resolver.
Em seu percurso de pesquisa, você tem investigado a inserção de tecnologias proprietárias na educação pública superior e as consequências em relação à autonomia do serviço público e à soberania do Estado brasileiro. Como você acha que a inserção das tecnologias de inteligência artificial entra nesse cenário?
Está ligada a um processo mais amplo de terceirização do Estado e dos serviços públicos, o que é muito perigoso. Isso está acontecendo em diversas áreas, e parece que até o próprio funcionalismo público vai sendo reduzido, enquanto uma massa de trabalhadores passa a atuar em condições precarizadas, como se não fizessem parte do sistema.
Pegue o caso das universidades. A privatização do ensino superior passa, muitas vezes, pelo uso de certas tecnologias educacionais. Mas antes disso houve a privatização da limpeza. Depois veio a da segurança. E agora, mesmo a segurança privada já está sendo substituída por câmeras. Eu vi isso acontecer ao longo do meu percurso na universidade. Os seguranças que eram funcionários da instituição, que conheciam os alunos, os professores, que estavam lá há anos, foram substituídos por seguranças terceirizados, com alta rotatividade. A gente já não os conhece mais, e eles tampouco se veem como parte da universidade. Não têm os mesmos salários, nem os mesmos direitos. Agora, nem eles existem mais. Foram trocados por câmeras.
Esse processo é mais um capítulo da lógica de extração e privatização. Ele se manifesta, por exemplo, na compra de pacotes educacionais padronizados que podem ser facilmente implantados e substituídos. Mesmo quando há alguma adaptação às infraestruturas educacionais, elas continuam sob controle das Big Techs 7 .
A gente está vendo isso acontecer dentro das próprias universidades. A Unicamp, por exemplo, lançou recentemente uma inteligência artificial própria. Foi anunciada como uma IA segura para uso de professores e funcionários “porque é da Unicamp”. Mas bastaram dois ou três dias para aparecer o logo da Amazon Web Services. Ou seja, o que temos ali é um ambiente construído sobre infraestrutura da Amazon, com um contrato que, em tese, oferece garantias de segurança, mas que, na prática, ninguém consegue auditar. É a velha lógica do “ la garantía soy yo ”.
Então, esse movimento se encaixa plenamente nesse processo de diminuição do Estado. Temos um Estado que continua existindo, mas que já não consegue fazer quase nada, ou porque não tem os recursos ou porque, mesmo tendo, não pode agir com eles. Vou dar outro exemplo para deixar isso mais claro: os servidores públicos têm muita facilidade para comprar tecnologias prontas, importadas em pacotes. Mas se tentam desenvolver algo localmente, enfrentam uma série de dificuldades. Falta pessoal, faltam incentivos e ainda há o medo da fiscalização dos órgãos de controle, como o TCU [Tribunal de Contas da União]. Se você compra algo padronizado, ninguém te incomoda. Mas se tenta inovar por conta própria, acaba se complicando.
Esse tipo de estímulo — ou de desestímulo — direciona decisões públicas. Talvez seja isso que explique, em parte, políticas como o ProUni [Programa Universidade para Todos]. Criar novas universidades públicas exigiria investimento, tempo, enfrentamento político. É mais fácil comprar vagas em instituições privadas e ainda parece que você está fomentando o setor. Mas, nesse processo, o que antes eram universidades comunitárias ou fundações, hoje viraram grandes grupos econômicos de educação, concentrados e lucrativos
A lógica é a mesma que temos discutido: capacidades públicas, formadas coletivamente, vão sendo transferidas para o setor privado. Isso inclui a nossa dependência crescente das tecnologias para funções básicas, como escrever um texto, traduzir um artigo, organizar o trabalho pedagógico. Toda essa capacidade que deveria ser construída como bem público está sendo apropriada por empresas, com vistas à geração de renda privada.
A capacidade de resolver problemas locais, que é uma função essencial do servidor público, também está sendo terceirizada. E aí, no fim, passamos a depender dessas empresas para que o sistema funcione. Essa é a verdadeira questão da soberania: quando não conseguimos mais produzir as soluções que precisamos com os nossos próprios meios.
Semana passada, eu conversava com um grupo de pesquisadores que estudam inteligência artificial e propriedade intelectual. Me perguntaram: “Que cenário você vê para tornar esse campo mais justo?” E, para mim, não tem outra saída a não ser repopular o público. Existe hoje uma apropriação privada muito forte do que é produzido coletivamente. Isso não vai desaparecer, mas precisamos criar meios para que aqueles que produzem publicamente possam continuar produzindo.
Isso vale para professores, músicos, programadores. Um músico deveria poder viver da sua arte sem depender de vender tudo ao mercado. Claro que o mercado vai se apropriar da música, podemos permitir isso. Mas precisamos encontrar formas de financiar a produção criativa que não sejam exclusivamente mercantis. Porque o mercado, agora, nem precisa mais da criação. A IA já dá conta de simular.
Só que isso, uma hora, vai dar “curto-circuito”. Se não houver renovação real na produção criativa, a qualidade só vai cair. Porque a IA, no fim das contas, é autorreferencial. E ela vai continuar girando em torno de um conteúdo que ela mesma produziu.
Agora, pensando nisso tudo, criei um cenário catastrófico aqui em relação a como isso pode interferir na qualidade da produção científica do país. Essas capacidades que estão sendo transferidas são capacidades que são essenciais para a realização de uma pesquisa científica. Capacidade de leitura, de escrita, de fazer correlações. Aí, se agora eu só consigo produzir a partir de uma tecnologia específica, proprietária, isso cria uma dependência que pode minar as capacidades de produção da universidade…
É isso que acontece com a música. A gente tem músico que não sabe tocar. O sujeito faz 20 álbuns e ele não sabe tocar. Porque tudo é corrigido pela própria IA. Mas no fim é isso, no fim é uma possibilidade de minar a capacidade de produção científica.
Ainda em relação a isso, o governo brasileiro vem discutindo a regulamentação da inteligência artificial e até mesmo o desenvolvimento de uma IA nacional. Como você avalia essa iniciativa? Quais seriam, em sua análise, os pontos críticos e caminhos viáveis para que o Brasil avance nessa frente sem repetir erros de outras políticas tecnológicas?
Vou aproveitar essa pergunta para falar de apropriação tecnológica, um termo que eu deveria ter usado antes. Sobre a regulação, especificamente, o projeto que esteve pra ser votado, o PL 2630, é um bom projeto. Mas é também um projeto medíocre. Por quê? Porque ele repete uma perspectiva europeia. Não estou dizendo que seja ruim, pode até ser necessário, algo útil no curto prazo. Mas é o que vem acontecendo no campo da regulação de tecnologias da informação desde a LGPD 8 , que, no fundo, é uma réplica da GDPR [General Data Protection Regulation] da União Europeia. A mesma coisa ocorre agora com a tentativa de regular plataformas.
Estamos muito colados nos modelos europeus. Isso não é, em si, um problema. A LGPD é melhor do que não ter nenhuma regulação. Mas ao escolher sempre as opções mais acessíveis, deixamos de explorar caminhos mais promissores. Talvez a regulação da IA precise mesmo ser feita rapidamente, como uma medida emergencial. Só não podemos fechar as portas para outras possibilidades mais estruturantes.
Veja a LGPD: uma boa lei, sim, mas pouco aplicada, com muitos abusos. Tem advogado que diz que, se fosse cumprida à risca, o sistema pararia, porque quase ninguém segue.
Sobre o PBIA, o Plano Brasileiro de Inteligência Artificial,9 acho que ele representa um avanço importante em relação ao que havia no governo Bolsonaro, que era o EBIA [Estratégia Brasileira de Inteligência Artificial] — um amontoado de slides de PowerPoint, praticamente um faz de conta. O PBIA é sério, tem bons investimentos e mostra que há uma política sendo construída. Mas ele precisa ser aplicado, e precisa ser revisto continuamente à medida que o contexto muda.
O DeepSeek, por exemplo, mostra que é possível fazer coisas interessantes com menos recursos. Não precisamos competir com a OpenAI no mesmo nível orçamentário. Eles já abriram caminhos. O que precisamos é entender a lógica por trás do que foi feito e, a partir disso, desenvolver algo nosso, quem sabe até em cooperação com os chineses.
Acho essencial termos uma IA nacional, com base pública, em software livre e modelos abertos, como o próprio DeepSeek propõe. E que seja feita em português. Os portugueses já estão caminhando nessa direção. No âmbito do CGI e do Fórum de Governança da Internet dos Países Lusófonos, temos discutido como essa cooperação poderia funcionar. Mas o CGI não coloca recursos nisso, apenas atua no plano de princípios e diretrizes.
Mesmo assim, desenvolver algo em português, pensado a partir das nossas culturas e histórias, pode ser muito rico. A língua é uma plataforma de contato entre os países lusófonos. Apesar das diferenças culturais, há também aproximações que podem alimentar um projeto comum. Tudo isso é insumo para uma IA que reflita nossa lógica de pensamento.
Claro, há limites. Isso é um problema teórico muito interessante, porque a gente não sabe muito bem até que ponto a gente é capaz de construir coisas muito diferentes, porque também estamos partindo de uma base, um modelo de tecnologia, que é uma tecnologia informacional que por si só tem sua lógica. Tem uma lógica do cálculo e da cibernética. Mas isso não nos impede de explorar as possibilidades do que tem se chamado de tecnodiversidade, ou seja, construir tecnologias mais plurais, mais alinhadas com diferentes formas de ver o mundo.
Esse movimento passa pela apropriação tecnológica. Não só pelo Estado, mas também pelas comunidades. Elas precisam se apropriar das tecnologias, estabelecer critérios coletivos sobre como usá-las. Governança tecnológica não pode ser apenas algo estatal, nem tampouco uma responsabilidade individual.
O indivíduo, sozinho, é vulnerável. Ele não consegue controlar o que vê, o que consome, o que compartilha, muito menos o que seus filhos acessam. Mas, em estruturas comunitárias, há espaço para discutir, decidir coletivamente, dividir responsabilidades. Isso exige esforço, sim, mas precisamos sair dessa dicotomia entre “o Estado faz tudo” e “cada um por si”.
Quando começamos a discutir soberania digital, na transição do governo Bolsonaro para o governo Lula, a referência que surgiu foi a soberania alimentar construída pelo MST [Movimento dos Trabalhadores Rurais sem Terra]. A ideia de que uma comunidade pode se apropriar dos meios de produção de alimentos para deixar de ser vulnerável é muito potente — e o mesmo vale para o digital.
A soberania digital é, no fundo, uma forma de apropriação tecnológica. Não se trata de negar o papel do Estado. Ele é fundamental, tem capacidade de organização, financiamento e planejamento. Mas o desafio é pensar como esse Estado pode também criar as condições para que a democracia se realize em níveis mais próximos das pessoas, em estruturas comunitárias e locais.
A gente está vivendo uma centralização muito grande em relação ao desenvolvimento tecnológico, e isso tira a nossa capacidade de aproveitar outras coisas relacionadas à tecnologia. Por exemplo, essa questão de as tecnologias serem um mote para uma gestão comunitária ou para soluções de problemas locais… A universidade está abrindo mão dessa criação para embarcar em tecnologias de fora. E isso cria outro problema: a gente acaba importando problemas de outros lugares, tecnologias treinadas em outros lugares, produzidos em outros lugares, com outra cultura, outra matriz étnico-racial, outros problemas de Estado.
Você lembrou muito bem da universidade, da relação entre a universidade e as comunidades. Agora temos uma pressão boa para que a universidade fizesse mais projetos de extensão. Só que os projetos de extensão não podem ser projetos de prestação de serviços. Então, como é que a gente faz projetos de extensão que envolvam tecnologias? Isso é uma função que a universidade poderia, de fato, fazer muito bem. Mas não é só ir para a comunidade e ensinar engenharia de prompt no ChatGPT. Pode ser importante também, tem gente que diz que a engenharia de prompt é a próxima fronteira do conhecimento. Mas, enfim, você pode até no final ensinar engenharia de prompt , mas você tem que ensinar como é que sistemas pensam. Como é que eles são feitos, para que eu não aprenda receitas de bolo de engenharia de prompt e para que eu consiga de fato fazer um planejamento do meu prompt . Se eu entendo a lógica de pensamento, eu consigo dialogar com aquilo. Eu estou numa posição de entender como aquele outro pensa e quais as capacidades dele que eu possa incorporar. Para que essa seja uma relação produtiva para mim e não só produtiva para esse outro ser, que fica extraindo meus dados, fica extraindo meus padrões de comportamento e tudo mais.
REFERÊNCIAS
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União , Brasília, DF. 15 ago. 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm . Acesso em: 15 set. 2025.
BRASIL. Lei nº 15.100, de 13 de janeiro de 2025. Dispõe sobre a utilização, por estudantes, de aparelhos eletrônicos portáteis pessoais nos estabelecimentos públicos e privados de ensino da educação básica. Diário Oficial da União , Brasília, DF. 14 jan. 2025. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2023-2026/2025/lei/l15100.htm . Acesso em: 15 set. 2025.
BRASIL. Senado Federal. Projeto de Lei n° 2630, de 2020. Lei das Fake News. Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/141944 . Acesso em: 15 set. 2025.
CRUZ, Leonardo Ribeiro da; AMIEL, Tel; SARAIVA, Filipe. Coletando dados do Capitalismo de Vigilância. In : ANAIS DO VI SIMPÓSIO INTERNACIONAL LAVITS. Salvador: Lavits, 2019.
CRUZ, Leonardo Ribeiro da; VENTURINI, Jamila Rodrigues. Neoliberalismo e crise: o avanço silencioso do capitalismo de vigilância na educação brasileira durante a pandemia da Covid19. Revista Brasileira de Informática na Educação , [S. l.], v. 28, p. 1060-1085, 2020. DOI: https://doi.org/10.5753/rbie.2020.28.0.1060 . Disponível em: https://journals-sol.sbc.org.br/index.php/rbie/article/view/4235 . Acesso em: 28 jul. 2025.
CRUZ, Leonardo Ribeiro da; DINIZ, Janaina do Rosário; AMIEL, Tel; GONSALES, Priscila; SARAIVA, Filipe; RAMOS, Vinicius. The Platformization of Higher Education in Latin America and Africa. In : LLITERAS, A. B.; SPROCK, A. S.; AGREDO-DELGADO, V. (ed.). Proceedings of the 19th Latin American Conference on Learning Technologies (LACLO 2024) . Singapore: Springer, 2025. p. 435-447. DOI: https://doi.org/10.1007/978-981-96-3698-3_31 .
EVANGELISTA, Rafael de Almeida. Para além das máquinas de adorável graça: cultura hacker, cibernética e democracia . São Paulo: Edições Sesc São Paulo, 2018. v. 1, 92 p.
EVANGELISTA, Rafael de Almeida et al . Inteligência local, soberania digital e soberania de dados. In : PENTEADO, Cláudio; PELLEGRINI, Jerônimo; SILVEIRA, Sérgio Amadeu da (org.). Plataformização, inteligência artificial e soberania de dados: tecnologia no Brasil 2020-2030 . São Paulo: Ação Educativa, 2023. v. 1, p. 1-198.
EVANGELISTA, Rafael (org.). Educação em um cenário de plataformização e de economia de dados . São Paulo: Comitê Gestor da Internet no Brasil, 2024.
EVANGELISTA, Rafael de Almeida. Debaixo dos caracóis dos seus cabelos: as mudanças nas políticas da Meta e a tomada da Casa Branca pelo Vale do Silício . RECIIS - Revista Eletrônica de Comunicação, Informação & Inovação em Saúde , Rio de Janeiro, v. 19, p. 1-8, 2025.
EVANGELISTA, Rafael de Almeida; CRUZ, Leonardo Ribeiro da. Plataformas educacionais e a emergência de uma educação cibernética. In : EVANGELISTA, Rafael (org.). Educação em um cenário de plataformização e de economia de dados . São Paulo: Comitê Gestor da Internet no Brasil, 2024. v. 1, p. 13-20.
PARRA, Henrique Zoqui Martins; CRUZ, Leonardo Ribeiro da; AMIEL, Tel; MACHADO, Jorge. Infraestruturas, economia e política informacional: o caso do Google Suite for Education. Mediações, Londrina, v. 23, n. 1, p. 63-99, jan./abr. 2018.
UNIÃO EUROPEIA. Regulation (EU) 2016/679 of the european parliament and of the council of 27 April 2016. On the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation). Official Journal of the European Union , Brussels, 4 maio 2016. Disponível em: https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32016R0679 . Acesso em: 15 set. 2025.
WOLF, Eric R. Envisioning power : ideologies of dominance and crisis . Berkeley: University of California Press, 1999.
ZUBOFF, Shoshana. In the age of the smart machine : the future of work and power . New York: Basic Books, 1988.
ZUBOFF, Shoshana. The age of surveillance capitalism : the fight for a human future at the new frontier of power. New York: Public Affairs, 2019.
Rafael de Almeida Evangelista
Desde 2003, é pesquisador do Laboratório de Estudos Avançados em Jornalismo (Labjor) da Unicamp, e desde 2011 é professor do programa de pós-graduação em Divulgação Científica e Cultural (Unicamp). Tem graduação em Ciências Sociais (1998), mestrado em Linguística (2005) e doutorado em Antropologia Social (2010), todos os títulos pela Universidade Estadual de Campinas (Unicamp). Em 2018, foi pesquisador visitante junto ao Surveillance Studies Centre, da Queen's University, no Canadá.
Leonardo Ribeiro da Cruz
Professor de Teoria Sociológica do Instituto de Filosofia e Ciências Humanas da Universidade Federal do Pará (UFPA). Professor permanente do Programa de Pós-Graduação de Sociologia e Antropologia da Universidade Federal do Pará. Coordenador do Laboratório Amazônico de Estudos Sociotécnicos da Universidade Federal do Pará e cocoordenador do Observatório Educação Vigiada (educacaovigiada.org.br). Possui graduação e mestrado em Ciências Sociais pela Universidade Estadual Paulista Júlio de Mesquita Filho e doutorado em Sociologia pela Universidade Estadual de Campinas (Unicamp).
|
Como citar este documento – ABNT EVANGELISTA, Rafael de Almeida; CRUZ, Leonardo Ribeiro da. Entre a técnica e a política: inteligência artificial e ensino superior — entrevista como Prof. Dr. Rafael Evangelista. Revista Docência do Ensino Superior, Belo Horizonte, v. 15, e059094, p. 1-19, 2025. DOI: https://doi.org/10.35699/2237-5864.2025.59094 . |
|
1 Universidade Estadual de Campinas (UNICAMP), Campinas, SP, Brasil.
ORCID ID: https://orcid.org/0000-0001-5446-5792 . E-mail: rae@unicamp.br
2 Universidade Federal do Pará (UFPA), Belém, PA, Brasil.
ORCID ID: https://orcid.org/0000-0002-0383-4460 . E-mail: leocruz@ufpa.br
3 Alan Mathison Turing foi um matemático, lógico e cientista da computação britânico, considerado um dos pais da ciência da computação teórica e da inteligência artificial. Turing teve um papel fundamental no desenvolvimento da computação moderna, especialmente com sua concepção da Máquina de Turing, um modelo teórico que formalizou os conceitos de algoritmo e computação. Ele é conhecido por sua contribuição na decifração do código Enigma durante a Segunda Guerra Mundial e por desenvolver o conceito da Máquina de Turing, base teórica dos computadores modernos. O "Jogo da Imitação" é um conceito proposto por Turing e que consiste em um teste em que um interrogador tenta distinguir entre um ser humano e uma máquina com base em suas respostas a perguntas. Se a máquina conseguir enganar o interrogador, fazendo-o acreditar que é humana, ela pode ser considerada "inteligente". Esse teste, conhecido como Teste de Turing, tornou-se um marco na discussão sobre inteligência artificial e ainda é amplamente debatido hoje.
4 Eric Wolf (1923-1999) foi um antropólogo austro-americano conhecido por seus estudos sobre poder, colonialismo e sociedades camponesas. No livro citado, Envisioning Power (1999), Eric Wolf analisa a relação entre ideologia, poder e estruturas sociais, explorando como culturas dominantes impõem suas visões de mundo.
5 Shoshana Zuboff é professora emérita da Harvard Business School e autora estadunidense, reconhecida por suas contribuições críticas sobre os impactos da tecnologia digital na sociedade. Seu trabalho mais influente, The Age of Surveillance Capitalism (2019), introduziu o conceito de "capitalismo de vigilância", analisando como grandes corporações digitais monetizam dados pessoais em escala global, transformando a experiência humana em matéria-prima para lucro. Sua pesquisa interdisciplinar abrange sociologia, filosofia, psicologia social, economia e tecnologia, estabelecendo-a como uma das principais vozes nos debates sobre privacidade, poder corporativo e o futuro da democracia na era digital.
6 Lei nº 15.100, de 13 de janeiro de 2025. Promulgada pelo presidente Luiz Inácio Lula da Silva, a lei torna o uso de aparelhos eletrônicos portáteis – como celulares, tablets e smartwatches – proibido durante as aulas, recreios e intervalos nas escolas, tanto públicas quanto privadas, abrangendo a educação infantil, o ensino fundamental e o ensino médio.
7 Big Tech é um termo usado para se referir às grandes empresas de tecnologia com amplo poder econômico e influência global, como Google, Apple, Facebook, Amazon e Microsoft.
8 A Lei Geral de Proteção de Dados Pessoais (LGPD), sancionada em 2018 (Lei nº 13.709/2018), regula o tratamento de dados pessoais no Brasil, estabelecendo direitos aos titulares e obrigações às empresas e órgãos públicos quanto à coleta, uso, armazenamento e compartilhamento dessas informações.
9 O Plano Brasileiro de Inteligência Artificial está disponível em: https://www.gov.br/lncc/pt-br/assuntos/noticias/ultimas-noticias-1/plano-brasileiro-de-inteligencia-artificial-pbia-2024-2028 .
Recebido em: 04/06/2025 Aprovado em: 07/08/2025 Publicado em: 15/09/2025
Rev.
Docência Ens. Sup., Belo Horizonte, v. 15, e059094, 2025