Please use this identifier to cite or link to this item: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/41048
Full metadata record
DC FieldValueLanguage
dc.creator.IDSOUSA, H. N. F.pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/2201042413775848pt_BR
dc.contributor.advisor1SANTOS, Danilo Freire de Souza.-
dc.contributor.advisor1IDDanilo F. S. Santos.pt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/9890987649970131pt_BR
dc.contributor.advisor-co1PERKUSICH, Mirko Barbosa.-
dc.contributor.advisor-co1IDPERKUSICH, M. B.pt_BR
dc.contributor.advisor-co1Latteshttp://lattes.cnpq.br/3250186213608951pt_BR
dc.contributor.referee1GORGÔNIO, Kyller Costa.-
dc.contributor.referee2ALBUQUERQUE, Danyllo Wagner.-
dc.description.resumoOBehavior-Driven Development (BDD) é essencial no desenvolvimento de software mod erno, com a linguagem Gherkin sendo crucial para especificar cenários de teste. No entanto, a criação manual desses cenários é demorada e propensa a erros. Os Grandes Modelos de Linguagem (LLM) surgem como uma solução inovadora para automatizar e otimizar esse processo, oferecendo uma alternativa mais eficiente e confiável. Neste estudo, investigamos a eficácia de seis LLM (GPT-3.5 Turbo, GPT-4 Turbo, GPT 4o Mini, LLaMA 3, Phi-3 e Gemini) na geração automatizada de cenários Gherkin a partir de 1.286 cenários de teste reais. Aplicamos diferentes técnicas de prompting, como zero shot, one-shot e few-shot, para avaliar a qualidade e a consistência das saídas produzidas. O objetivo foi identificar a técnica e o modelo mais adequados para a criação de cenários BDD. Para conduzir a análise, foram selecionadas medidas de avaliação de qualidade e variabil idade, que foram correlacionadas com avaliações qualitativas realizadas por especialistas. Isso garantiu a escolha de métricas representativas que refletem adequadamente a qualidade dos cenários gerados. Além disso, análises estatísticas foram realizadas para verificar a ex istência de diferenças significativas entre os modelos e técnicas aplicadas, assegurando a robustez metodológica do estudo. A análise de variabilidade apontou que a consistência dos modelos depende da técnica utilizada: em zero-shot, o Gemini foi mais consistente, enquanto LLaMA 3 e GPT-3.5 Turbo apresentaram maior variabilidade. Em one-shot, GPT-4o Mini e GPT-4 Turbo se destacaram pela estabilidade, ao passo que em few-shot, GPT-4o Mini e LLaMA 3 foram os mais es táveis. A análise de desempenho revelou que a técnica zero-shot foi a mais eficaz em diversos contextos, especialmente quando aplicada ao modelo Gemini. No entanto, análises estatís ticas, como o teste de Kruskal-Wallis, demonstraram que as diferenças observadas entre os modelos não foram estatisticamente significativas.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentCentro de Engenharia Elétrica e Informática - CEEIpt_BR
dc.publisher.programPÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃOpt_BR
dc.publisher.initialsUFCGpt_BR
dc.subject.cnpqComputação.pt_BR
dc.subject.cnpqInformática.pt_BR
dc.titleUm experimento comparativo da eficácia de diferentes LLM na geração de cenários Gherkin.pt_BR
dc.date.issued2025-01-31-
dc.description.abstractBehavior-Driven Development (BDD) is essential in modern software development, with the Gherkin language playing a crucial role in specifying test scenarios. However, the manual creation of these scenarios is time-consuming and error-prone. Large Language Models (LLMs) emerge as an innovative solution to automate and optimize this process, offering a more efficient and reliable alternative. In this study, we investigated the effectiveness of six LLMs (GPT-3.5 Turbo, GPT-4 Turbo, GPT-4o Mini, LLaMA 3, Phi-3, and Gemini) in the automated generation of Gherkin scenarios from 1,286 real-world test scenarios. We applied different prompting techniques, such as zero-shot, one-shot, and few-shot, to evaluate the quality and consistency of the gen erated outputs. The goal was to identify the most suitable technique and model for creating BDDscenarios. To conduct the analysis, we selected quality and variability evaluation measures, which were correlated with qualitative assessments performed by experts. This ensured the choice of representative metrics that adequately reflect the quality of the generated scenarios. Addi tionally, statistical analyses were performed to verify the existence of significant differences between the models and techniques applied, ensuring the methodological robustness of the study. The variability analysis indicated that the consistency of the models depends on the tech nique used: in zero-shot, Gemini was more consistent, while LLaMA 3 and GPT-3.5 Turbo showed higher variability. In one-shot, GPT-4o Mini and GPT-4 Turbo stood out for their stability, whereas in few-shot, GPT-4o Mini and LLaMA 3 were the most stable. The per formance analysis revealed that the zero-shot technique was the most effective in various contexts, especially when applied to the Gemini model. However, statistical analyses, such as the Kruskal-Wallis test, demonstrated that the observed differences between the models were not statistically significant.pt_BR
dc.identifier.urihttp://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/41048-
dc.date.accessioned2025-03-14T12:25:35Z-
dc.date.available2025-03-14-
dc.date.available2025-03-14T12:25:35Z-
dc.typeDissertaçãopt_BR
dc.subjectBehavior-Driven Development (BDD)pt_BR
dc.subjectGherkinpt_BR
dc.subjectModelos de linguagem de grande escalapt_BR
dc.subjectGeração automatizada de cenáriospt_BR
dc.subjectAvaliação de qualidadept_BR
dc.subjectAnálise de variabilidadept_BR
dc.subjectLarge-scale language modelspt_BR
dc.subjectAutomated scenario generationpt_BR
dc.subjectQuality assessmentpt_BR
dc.subjectVariability analysispt_BR
dc.rightsAcesso Abertopt_BR
dc.creatorSOUSA, Hiago Natan Fernandes de.-
dc.publisherUniversidade Federal de Campina Grandept_BR
dc.languageporpt_BR
dc.title.alternativeA comparative experiment of the effectiveness of different LLM in generating Gherkin scenarios.pt_BR
dc.identifier.citationSOUSA, Hiago Natan Fernandes de. Um experimento comparativo da eficácia de diferentes LLM na geração de cenários Gherkin. 2025. 141 f. Dissertação (Mestrado em Computação) – Programa de Pós-Graduação em Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande, Paraíba, Brasil, 2025.pt_BR
Appears in Collections:Mestrado em Ciência da Computação.

Files in This Item:
File Description SizeFormat 
HIAGO NATAN FERNANDES DE SOUSA - DISSERTAÇÃO (PPGCC) 2025.pdf1.76 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.