Inteligência Artificial e periódicos científicos: os dilemas que permeiam a produção acadêmica contemporânea

Editorial


Inteligência Artificial e periódicos científicos: os dilemas que permeiam a produção acadêmica contemporânea


Patrícia Nascimento Silva1



Resumo: este editorial apresenta brevemente alguns dilemas recentes decorrentes do uso de ferramentas de Inteligência Artificial na publicação acadêmica, especialmente no âmbito das atividades editoriais. Essas atividades, que envolvem diversos atores, têm sido impactadas em diferentes aspectos e, ao mesmo tempo, têm contribuído para redefinir a própria publicação científica. Até que ponto será aceitável a adoção da Inteligência Artificial? Quais são seus limites? O uso ético e responsável está sendo negligenciado na produção acadêmica? Qual é a fronteira, as atividades limítrofes, que devem ser realizadas por um pesquisador, e não “terceirizadas” para a máquina? Como ficam a integridade científica, a replicabilidade e, sobretudo, a consciência de quem afirma ter produzido algo inexistente, reduzindo simultaneamente a própria capacidade de estabelecer novas conexões e até mesmo de raciocinar? No caso de estudantes em formação, trata-se de um desperdício múltiplo de oportunidades de aprendizado. São muitas as perguntas, e até o momento há somente algumas respostas. Por fim, anuncia-se a atualização das diretrizes da Revista Múltiplos Olhares em Ciência da Informação, com o intuito de evitar práticas abusivas relacionadas ao uso de Inteligência Artificial.

Palavras-chave: Inteligência Artificial; integralidade científica, periódicos científicos.


Artificial Intelligence and scientific journals: the dilemmas that permeate contemporary academic production


Abstract: this editorial briefly presents some recent dilemmas arising from the use of Artificial Intelligence tools in academic publishing, especially in the context of editorial activities. These activities, which involve various actors, have been impacted in different ways and, at the same time, have contributed to redefining scientific publishing itself. To what extent is the use application of Artificial Intelligence acceptable? What are its limits? Is the ethical and responsible use being neglected in academic production? What is the boundary, the borderline activities that should be performed by a researcher rather than “outsourced” to the machine? What about scientific integrity, replicability and, above all, the conscience of those who claim to have produced something that does not exist, simultaneously reducing their own ability to establish new connections and even to reason? In the case of students in training, this is a multiple waste of learning opportunities. There are many questions, and so far there are only a few answers. Finally, the guidelines of the journal Múltiplos Olhares em Ciência da Informação (Multiple Perspectives on Information Science) are being updated in order to prevent abusive practices related to the use of Artificial Intelligence.

Keywords: Artificial Intelligence; scientific integrity, scientific journals.


Inteligencia Artificial y revistas científicas: los dilemas que impregnan la producción académica contemporánea


Resumen: este editorial presenta brevemente algunos dilemas recientes derivados del uso de herramientas de Inteligencia Artificial en la publicación académica, especialmente en el ámbito de las actividades editoriales. Estas actividades, que involucran a diversos actores, han sido impactadas en distintos aspectos y, al mismo tiempo, han contribuido a redefinir la propia publicación científica. ¿Hasta qué punto será aceptable la adopción de la Inteligencia Artificial? ¿Cuáles son sus límites? ¿Se está descuidando el uso ético y responsable en la producción académica? ¿Cuál es la frontera, el conjunto de actividades limítrofes, que deben ser realizadas por un investigador y no “externalizadas” a la máquina? ¿Qué ocurre con la integridad científica, la replicabilidad y, sobre todo, con la consciencia de quien afirma haber producido algo inexistente, reduciendo simultáneamente su propia capacidad de establecer nuevas conexiones e incluso de razonar? En el caso de estudiantes en formación, se trata de un desperdicio múltiple de oportunidades de aprendizaje. Hay muchas preguntas, y hasta ahora solo hay algunas respuestas. Por último, se anuncia la actualización de las directrices de la Revista Múltiples Miradas en Ciencia de la Información, con el propósito de evitar prácticas abusivas relacionadas con el uso de Inteligencia Artificial.

Palabras-clave: Inteligencia Artificial; integralidad científica, revistas científicas.


Como citar este artigo: NASCIMENTO SILVA, Patrícia. Inteligência artificial e periódicos científicos: os dilemas que assombram a produção acadêmica. Múltiplos Olhares em Ciência da Informação, Belo Horizonte, v. 15, p. 1-5, 2025. DOI: 10.35699/2237-6658.2025.63351.

Editorial

A Inteligência Artificial (IA) tem impactado de forma ampla a sociedade, influenciando significativamente as atividades humanas sob os pontos de vista comportamental e atitudinal. Com a sua popularização iniciada no final de 2022, impulsionada pela disseminação das ferramentas de IA generativa, emergiram, também, as primeiras discussões no âmbito do ensino, da pesquisa e dos periódicos científicos. As mudanças estruturais decorrentes da inserção da IA na sociedade são irreversíveis e não devem ser ignoradas, cabendo às instituições aprender a utilizá-las de forma ética e responsável. Orientar sobre o uso dessas tecnologias, incentivando pesquisas, ações de capacitação e parcerias estratégicas tende a ser o caminho, uma vez que tudo é ainda muito recente.

Considerando que toda inovação envolve simultaneamente benefícios e riscos, compreende-se que a inovação tecnológica proporciona avanços significativos, mas também impõe desafios relevantes. Nesse sentido, os periódicos precisam se posicionar oferecendo diretrizes claras e fomentar o uso responsável das tecnologias de IA nos processos editoriais, promovendo o alinhamento entre inovação, ética e o compromisso com a qualidade acadêmica e a responsabilidade social.

Nas atividades editoriais, com todos os desafios já existentes, especialmente no contexto brasileiro, ainda enfrentam-se novos dilemas relacionados a essa responsabilidade na publicação, uma vez que ela envolve diferentes atores e cada um é impactado de uma forma diferente.

Sob a perspectiva dos avaliadores, os editores e os pareceristas, para além das questões de plágio, como identificar textos que são gerados por IA utilizando dados e informações falsas, citações inexistentes ou fora de contexto? O que dizer sobre um artigo produzido por IA, com dados gráficos e imagens fictícias e pesquisas que nunca ocorreram, sendo publicado? Em outros casos, o que dizer sobre análises de textos produzidas por ferramentas nas quais o autor não leu nem estabeleceu as conexões, mas sim as “terceirizou” para a máquina? Pode um pesquisador produzir uma revisão “sistemática” utilizando prompts para a leitura dos artigos ou sem ao menos saber criar uma expressão de busca, tarefa que exige um raciocínio lógico basilar, e ainda achar isso vantajoso? Essa é a era em que estamos vivendo!

Sob a perspectiva do autor, o que dizer sobre um avaliador que faz o upload de seu trabalho em uma ferramenta de IA, uma pesquisa que levou anos para ser desenvolvida e que se trata de um estudo inédito, para que essa ferramenta analise e gere um parecer? Com que direito isso pode ser feito? Não seria melhor que ele rejeitasse o convite e deixasse outra pessoa realizar a análise? E ainda, como confiar em um periódico para submeter seus textos inéditos? Como saber os critérios e posturas adotadas frente ao uso de IA? E o que fazer diante dessa enorme quantidade de preprints, produzidos a toque de caixa, que acabam disputando espaço com artigos realmente rigorosos e que demandam tanto tempo de elaboração?

Ao contrário das atividades de pesquisa, as novas ferramentas de IA são desenvolvidas continuamente e apresentam rápida obsolescência, pelo menos em relação às versões, de modo que um uso excessivo, orientado por ações imediatas, mecanizadas e repetitivas, mediadas por IA, tende a não se sustentar no longo prazo. As tarefas estratégicas, com qualidade e rigor, relacionadas à pesquisa e à geração de valor permanecem fortemente dependentes da atuação humana. Nesse contexto, cabe ao ser humano direcionar, supervisionar e validar o uso das tecnologias, e não se submeter a elas, como se observa em algumas práticas contemporâneas.

Do ponto de vista da percepção social, persiste o mito de que a IA seria capaz de fornecer respostas para todas as questões, detendo um conhecimento total sobre qualquer temática. No ambiente acadêmico, contudo, a comunidade já reconhece, de forma mais clara, as limitações dessas tecnologias, especialmente no que se refere à geração de respostas descontextualizadas, imprecisas ou inadequadas. Apesar desse avanço na compreensão crítica, ainda se observa a existência de incertezas e concepções equivocadas acerca dos limites e das possibilidades de uso da IA em determinadas tarefas, o que evidencia a necessidade de orientações institucionais mais claras e de ações formativas contínuas sobre seu uso responsável.

Na pesquisa realizada no primeiro semestre de 2025 no âmbito da UFMG (Nascimento Silva et al., 2025), foram obtidos dados relevantes acerca do uso da IA por diferentes perfis da comunidade universitária, incluindo discentes, docentes e servidores técnico-administrativos em Educação. Um dos principais aspectos de preocupação identificados refere-se à utilização da IA como fonte de informação para “obtenção de dados e informações relevantes para atividades” e “pesquisa de fontes e links relacionados à determinada questão (recuperação de informação)”, além da correção e revisão de textos, bem como a produção de sínteses ou documentos.

Observa-se que muitos usuários recorrem à IA generativa, treinada, em grande parte, com dados generalistas e, por vezes, imprecisos, para apoiar atividades que demandam conteúdos especializados e, sobretudo, validados cientificamente. Esse uso inadequado pode estar associado a limitações na literacia em dados, compreendida como a capacidade de acessar, compreender, avaliar criticamente e utilizar dados e informações de forma consciente. A ausência dessa competência pode favorecer a formação de sujeitos passivos, que apenas consomem conteúdos gerados automaticamente, comprometendo seus processos criativos, reflexivos e de raciocínio crítico. Tal problemática torna-se ainda mais sensível no contexto da formação de profissionais e pesquisadores, já que é imprescindível, nas etapas iniciais, conhecer, compreender e executar integralmente os processos formativos, sem a supressão de etapas, a fim de evitar prejuízos ao ensino-aprendizagem.

No que se refere às atividades de correção e revisão de textos, observa-se um cenário particularmente sensível, especialmente por envolver produções científicas inéditas e ainda não publicadas. Embora algumas ferramentas indiquem a existência de políticas de privacidade e uso de dados, é importante destacar que as informações submetidas a esses sistemas frequentemente passam a integrar bases de dados controladas por grandes empresas de tecnologia, as big techs. Esse contexto suscita preocupações relevantes relacionadas à proteção dos direitos autorais, à confidencialidade da produção científica e ao fortalecimento de mecanismos de vigilância tecnológica, com potenciais impactos éticos, jurídicos e institucionais.

Por fim, anuncia-se que as diretrizes da Revista Múltiplos Olhares em Ciência da Informação (MOCI) foram atualizadas para indicar seu posicionamento sobre o uso da IA e orientar autores, pareceristas e editores. O uso deve ser informado e detalhado, bem como as ferramentas utilizadas. Qualquer tipo de modelo, seja Large Language Model (LLM) ou Small Language Model (SLM), deve ser declarado e explicitado na seção de Metodologia, da mesma forma que ocorre com outros softwares e ferramentas. Sugere-se que o uso de IA deve limitar-se à produção de quadros, tabelas, imagens ou outros elementos gráficos do artigo, ou, ainda, à coleta de dados. Análises são permitidas somente quando se referem a estudos relacionados ao aprendizado de máquina e ao treinamento de modelos, não devendo ser empregadas para leituras ou interpretações de texto, responsabilidade exclusiva de um pesquisador. Além disso, é importante destacar que ferramentas de IA não assumem responsabilidade de autoria, cabendo aos autores garantir a integridade e a originalidade dos artigos de pesquisa.

Como orientação aos autores da MOCI, em especial aos pós-graduandos, em formação para a pesquisa científica, destaca-se a importância de preservar as atividades essenciais de leitura, interpretação e escrita, as quais são estruturantes da formação acadêmica e não devem ser integralmente substituídas por ferramentas de IA. Observa-se, de forma crescente, a utilização de ferramentas de IA para a geração de textos científicos, sínteses automáticas e categorização de conteúdos, práticas que, para além das implicações éticas e dos riscos à integridade científica, podem comprometer a formação efetiva do pesquisador. Esse uso acrítico, ao invés de formar um pesquisador autônomo e reflexivo, formará um replicador de conteúdos, despreparado para enfrentar os complexos desafios do contexto científico, em especial o brasileiro, marcado por limitações e pela necessidade constante de superação e inovação.

É fundamental que pesquisadores mantenham uma postura crítica e autônoma frente ao uso da IA, sendo honestos e transparentes com os periódicos e consigo, afinal, a dívida cognitiva será cobrada! Embora essas tecnologias possam ser empregadas como ferramentas de apoio em diversas atividades, os processos que envolvem a tomada de decisão e as atividades-fim, especialmente aquelas que impactam diretamente a formação intelectual e profissional, não devem ser delegadas à máquina. À semelhança dos chamados “invernos”, observados em diferentes áreas do conhecimento, é provável que ocorra um processo de seleção e maturação dessas tecnologias. Nesse cenário, a IA tende a permanecer como ferramenta relevante, mas deverão perdurar sobretudo as soluções que mantenham o ser humano no centro dos processos de decisão, no controle e na supervisão das máquinas.

Agradecimento

Ao Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) pelo apoio à pesquisa, processo 303721/2025-1.

Referências

NASCIMENTO SILVA, Patrícia et al. Inteligência artificial na UFMG: percepções da comunidade acadêmica – relatório da consulta à comunidade acadêmica da Universidade Federal de Minas Gerais no primeiro semestre de 2025. 2. ed. Belo Horizonte: Universidade Federal de Minas Gerais, 2025. 1 recurso online. Disponível em: https://www.ufmg.br/ia/wp-content/uploads/2025/12/Inteligencia-Artificial-na-UFMG_-percepcoes-da-comunidade-academica-2-1-1.pdf. Acesso em: 10 dez. 2025.





1 Doutora em Gestão e Organização do Conhecimento (Ciência da Informação), Universidade Federal de Minas Gerais, patricians@ufmg.br.


DOI: https://doi.org/10.35699/2237-6658.2025.63351.

Revista Múltiplos Olhares em Ciência da Informação, Belo Horizonte, v. 15, e063351, 2025

0

Revista Múltiplos Olhares em Ciência da Informação, Belo Horizonte, v. 15, e063351, 2025