Geração de textos dinâmicos e criativos com Grandes Modelos de Linguagem (LLMs)
uma revisão sistemática
DOI:
https://doi.org/10.1590/1983-3652.2025.60103Palavras-chave:
Grandes Modelos de Linguagem, Imaginário literário, Revisão sistemáticaResumo
Este artigo apresenta uma revisão sistemática da literatura sobre a aplicação de Grandes Modelos de Linguagem (LLMs) na geração e identificação de textos criativos e dinâmicos com base em referenciais simbólicos, narrativos e do imaginário literário, considerando publicações entre 2014 e 2024. A análise contempla duas etapas principais: (1) triagem e curadoria bibliográfica automatizada com apoio de ferramentas baseadas em inteligência artificial e (2) análise crítica das abordagens, desafios e oportunidades presentes na literatura selecionada. As ferramentas utilizadas permitiram gerenciar referências, extrair metadados e identificar padrões temáticos. Os resultados indicam predominância de estudos voltados à geração criativa de textos e à detecção de linguagem figurada, como metáforas, com uso crescente de modelos híbridos que combinam estruturas simbólicas e subsimbólicas. Conclui-se que, apesar do potencial dos LLMs para a criatividade computacional, persistem desafios como baixa interpretabilidade e escassa adaptação a contextos culturais não hegemônicos.
Downloads
Referências
ALKAISSI, H.; MCFARLANE, S.I. Artificial Hallucinations in ChatGPT: Implications in Scientific Writing. Cureus, v. 15, n. 2, p. 1–4, 2023. DOI: 10.7759/cureus.34830. Disponível em: https://pubmed.ncbi.nlm.nih.gov/36811129/. Acesso em: 13 mar. 2025.
BAGNO, Marcos. Preconceito linguístico: o que é, como se faz. 56. ed. São Paulo: Loyola, 2011.
BAKHTIN, Mikhail. Marxismo e Filosofia da Linguagem. 8. ed. São Paulo: Hucitec, 1997.
BAKHTIN, Mikhail. Estética da criação verbal. 4. ed. São Paulo: Martins Fontes, 2003.
BENDER, Emily M.; GEBRU, Timnit; MCMILLAN-MAJOR, Angelina; SHMITCHELL, Shmargaret. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? In: PROCEEDINGS of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FACCT ’21). New York: ACM, 2021. p. 610–623. DOI: 10.1145/3442188.3445922.
BENDER, Emily M.; KOLLER, Alexander. Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data. In: PROCEEDINGS of the 58th Annual Meeting of the Association for Computational Linguistics. Online: Association for Computational Linguistics, 2020. p. 5185–5198. Disponível em: https://aclanthology.org/2020.acl-main.463. Acesso em: 27 jun. 2025.
BLODGETT, S. L.; BAROCAS, S.; DAUMÉ III, H.; WALLACH, H. M. Language (technology) is power: a critical survey of “bias” in NLP. In: PROCEEDINGS of the 58th Annual Meeting of the Association for Computational Linguistics. Online: Association for Computational Linguistics, 2020. p. 5454–5476. Disponível em: https://aclanthology.org/2020.acl-main.485. Acesso em: 27 jun. 2025.
BOOTH, Andrew. Clear and present questions: formulating questions for evidence-based practice. Library Hi Tech, v. 24, n. 3, p. 355–368, 2006. DOI: 10.1108/07378830610692127.
BRONCKART, Jean-Paul. Atividade de linguagem, textos e discursos: por um interacionismo sócio-discursivo. São Paulo: EDUC, 1999.
BROWN, Tom B.; MANN, Benjamin; RYDER, Nick; SUBBIAH, Melanie; KAPLAN, Jared; DHARIWAL, Prafulla; NEELAKANTAN, Arvind; SHYAM, Pranav; SASTRY, Girish; ASKELL, Amanda; AGARWAL, Sandhini; HERBERT-VOSS, Ariel; KRUEGER, Gretchen; HENIGHAN, Tom; CHILD, Rewon; RAMESH, Aditya; ZIEGLER, Daniel M.; WU, Jeffrey; WINTER, Clemens; HESSE, Christopher; CHEN, Mark; SIGLER, Eric; LITWIN, Mateusz; GRAY, Scott; CHESS, Benjamin; CLARK, Jack; BERNER, Christopher; MCCANDLISH, Sam; RADFORD, Alec; SUTSKEVER, Ilya; AMODEI, Dario. Language Models are Few-Shot Learners. [S. l.: s. n.], 2020. arXiv preprint arXiv:2005.14165. DOI: 10.48550/arXiv.2005.14165.
CHANG, K. K.; CRAMER, M.; SONI, S.; BAMMAN, D. Speak, memory: An archaeology of books known to chatgpt/gpt-4. [S. l.: s. n.], 2023. arXiv preprint arXiv:2305.00118. Disponível em: https://arxiv.org/abs/2305.00118. Acesso em: 30 maio 2025.
CRUMLEY, Ellen; KOUFOGIANNAKIS, Denise. Developing evidence-based librarianship: practical steps for implementation. Health Information and Libraries Journal, v. 19, n. 2, p. 61–70, 2002. DOI: 10.1046/j.1471-1842.2002.00372.x.
DEVLIN, Jacob; CHANG, Ming-Wei; LEE, Kenton; TOUTANOVA, Kristina. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. [S. l.: s. n.], 2019. arXiv preprint arXiv:1810.04805. DOI: 10.48550/arXiv.1810.04805.
DOLZ, Joaquim; SCHNEUWLY, Bernard. Gêneros orais e escritos na escola. Campinas: Mercado de Letras, 2004.
FRANCESCHELLI, G.; MUSOLESI, M. Creativity and Machine Learning: A Survey. ACM Computing Surveys, v. 56, n. 11, p. 1–41, 2021. DOI: 10.1145/3664595. Acesso em: 18 maio 2025.
FRANCESCHELLI, G.; MUSOLESI, M. On the Creativity of Large Language Models. AI & Society, v. 40, p. 3785–3795, 2024. DOI: 10.1007/s00146-024-02127-3.
GÓMEZ-RODRÍGUEZ, Carlos; WILLIAMS, Paul. A Confederacy of Models: a Comprehensive Evaluation of LLMs on Creative Writing. In: FINDINGS of the Association for Computational Linguistics: EMNLP 2023. Singapore: Association for Computational Linguistics, 2023. p. 14504–14528. Disponível em: https://aclanthology.org/2023.findings-emnlp.966. Acesso em: 18 maio 2025.
HEIDEGGER, Martin. Ser e Tempo. Petrópolis: Vozes, 2012.
HUSSERL, Edmund. Investigações Lógicas. São Paulo: Abril Cultural, 1975.
ICHIEN, Nicholas; STAMENKOVIĆ, Dušan; HOLYOAK, Keith J. Large Language Model Displays Emergent Ability to Interpret Novel Literary Metaphors. [S. l.: s. n.], 2023. arXiv preprint arXiv:2308.01497. Disponível em: https://arxiv.org/abs/2308.01497. Acesso em: 30 jun. 2025.
JAKOBSON, Roman. Linguística e comunicação. São Paulo: Cultrix, 1976.
JOVANOVIC, M.; CAMPBELL, M. Generative Artificial Intelligence: Trends and Prospects. Computer, v. 55, n. 10, p. 107–112, 2022. DOI: 10.1109/MC.2022.3192720.
JURAFSKY, Daniel; MARTIN, James H. Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition. 3. ed. Upper Saddle River, NJ, USA: Prentice-Hall, Inc., 2023. Disponível em: https://web.stanford.edu/~jurafsky/slp3/ed3book_jan72023.pdf. Acesso em: 30 abr. 2025.
KAUFMAN, D. Desmistificando a inteligência artificial. Belo Horizonte: Autêntica, 2022.
KIM, Jeongyeon; SUH, Sangho; CHILTON, Lydia B.; XIA, Haijun. Metaphorian: Leveraging Large Language Models to Support Extended Metaphor Creation for Science Writing. In: PROCEEDINGS of the ACM Conference on Designing Interactive Systems (DIS’23). [S. l.: s. n.], 2023. Disponível em: https://hci.ucsd.edu/papers/metaphorian.pdf. Acesso em: 30 jun. 2025.
LABOV, William. Sociolinguística. 6. ed. São Paulo: Parábola Editorial, 2008.
LOUWERSE, Max M. Symbol Interdependency in Symbolic and Embodied Cognition. Topics in Cognitive Science, v. 3, n. 2, p. 273–302, 2011. DOI: 10.1111/j.1756-8765.2010.01106.x.
MARCUS, Gary; DAVIS, Ernest. Rebooting AI: Building Artificial Intelligence We Can Trust. New York: Pantheon Books, 2020.
MARCUSCHI, Luiz Antônio. Gêneros textuais: definição e funcionalidade. In: MARCUSCHI, Luiz Antônio; DIONÍSIO, Ángela Paiva (ed.). Gêneros textuais e ensino. Rio de Janeiro: Lucerna, 2007.
MCCULLOCH, W. S.; PITTS, W. A Logical Calculus of the Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, v. 52, n. 1/2, p. 99–115, 1990. Reprinted from Bulletin of Mathematical Biophysics, v. 5, p. 115–133, 1943. Disponível em: https://www.cs.cmu.edu/~epxing/Class/10715/reading/McCulloch.and.Pitts.pdf. Acesso em: 30 abr. 2025.
MERLEAU-PONTY, Maurice. Fenomenologia da Percepção. São Paulo: Martins Fontes, 1999.
MINSKY, Marvin; PAPERT, Seymour A. Perceptrons: An Introduction to Computational Geometry. Electronic reissue. Cambridge, MA: MIT Press, 2017. DOI: 10.7551/mitpress/11301.001.0001.
OPENAI. GPT-4 Technical Report. [S. l.: s. n.], 2023. arXiv preprint arXiv:2303.08774. Disponível em: https://arxiv.org/abs/2303.08774. Acesso em: 30 jun. 2025.
ORTEGA-MARTÍN, Miguel; GARCÍA-SIERRA, Óscar; ARDOIZ, Alfonso; ÁLVAREZ, Jorge; ARMENTEROS, Juan Carlos; ALONSO, Adrián. Linguistic ambiguity analysis in ChatGPT. [S. l.: s. n.], 2023. arXiv preprint arXiv:2302.06426. DOI: 10.48550/arXiv.2302.06426.
RADFORD, Alec; WU, Jeffrey; CHILD, Rewon; LUAN, David; AMODEI, Dario; SUTSKEVER, Ilya. Language Models are Unsupervised Multitask Learners. [S. l.: s. n.], 2019. OpenAI. Disponível em: https://cdn.openai.com/better-language-models/language_models_are_unsupervised_multitask_learners.pdf. Acesso em: 2 fev. 2025.
ROSENBLATT, Frank. The perceptron: A probabilistic model for information storage and organization in the brain. Amercian Psychological Association, v. 65, n. 6, p. 386–408, 1958. Disponível em: https://www.ling.upenn.edu/courses/cogs501/Rosenblatt1958.pdf. Acesso em: 22 abr. 2025.
RUMELHART, David E.; HINTON, Geoffrey E.; WILLIAMS, Ronald J. Learning representations by back-propagating errors. Nature, v. 323, n. 6088, p. 533–536, 1986. DOI: 10.1038/323533a0. Acesso em: 14 jun. 2025.
SABA, Walid S. Stochastic LLMs do not Understand Language: Towards Symbolic, Explainable and Ontologically Based LLMs. [S. l.: s. n.], 2023. arXiv preprint arXiv:2309.05918. Disponível em: https://arxiv.org/abs/2309.05918. Acesso em: 30 jun. 2025.
SABA, Walid S. Symbolic and Language Agnostic Large Language Models. [S. l.: s. n.], 2023. arXiv preprint arXiv:2308.14199. Disponível em: https://arxiv.org/abs/2308.14199. Acesso em: 30 jun. 2025.
SANTO, Eniel do Espírito; ROSA, Flavia Goulart Mota Garcia; SILVA, Camila Bezerra da; BORDAS, Miguel Angel Garcia. Um Mosaico de Ideias sobre A Inteligência Artificial Generativa no Contexto da Educação. In: ALVES, Lynn (ed.). Inteligência artificial e educação: refletindo sobre os desafios contemporâneos. Salvador; Feira de Santana: EDUFBA; UEFS Editora, 2023. p. 51–70.
SAUSSURE, Ferdinand de. Curso de linguística geral. São Paulo: Cultrix, 1999.
STEVENSON, Catrine; SMAL, I.; BAAS, Maartje; GRASMAN, R.; MAAS, Han van der. Putting GPT-3’s Creativity to the (Alternative Uses) Test. In: INTERNATIONAL Conference on Computational Creativity (ICCC) 2022. [S. l.: s. n.], 2022. Disponível em: https://arxiv.org/abs/2206.08932. Acesso em: 30 jun. 2025.
VASWANI, Ashish; SHAZEER, Noam; PARMAR, Niki; USZKOREIT, Jakob; JONES, Llion; GOMEZ, Aidan N.; KAISER, Łukasz; POLOSUKHIN, Illia. Attention Is All You Need. In: ADVANCES in Neural Information Processing Systems 30 (NeurIPS 2017). [S. l.: s. n.], 2017. DOI: 10.48550/arXiv.1706.03762.
ZHANG, Ran; EGER, Steffen. LLM-based multi-agent poetry generation in non-cooperative environments. [S. l.: s. n.], 2024. arXiv preprint arXiv:2409.03659. Disponível em: https://arxiv.org/abs/2409.03659. Acesso em: 30 jun. 2025.
ZHAO, W.; CHELLAPPA, R.; PHILLIPS, P. J.; ROSENFELD, A. Face Recognition: A Literature Survey. ACM Computing Surveys, v. 35, n. 4, p. 399–458, 2003. DOI: 10.1145/954339.954342.
Downloads
Publicado
Declaração de Disponibilidade de Dados
Link de acesso ao conjunto de dados coletados: https://zenodo.org/records/15800742
Edição
Seção
Licença
Copyright (c) 2025 Patrick Fernandes Rezende Ribeiro, Denise Fukumi Tsunoda

Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.
Este é um artigo em acesso aberto que permite o uso irrestrito, a distribuição e reprodução em qualquer meio desde que o artigo original seja devidamente citado.








