Please use this identifier to cite or link to this item: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38053
Full metadata record
DC FieldValueLanguage
dc.creator.IDMAIA SOBRINHO, K. R. F.pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/8529240784804319pt_BR
dc.contributor.advisor1GHEYI, Rohit.
dc.contributor.advisor1IDGHEYI, R.pt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/2931270888717344pt_BR
dc.contributor.referee1MONGIOVI, Melina.
dc.contributor.referee1IDMONGIOVI, M.pt_BR
dc.contributor.referee1Latteshttp://lattes.cnpq.br/7535849756393864pt_BR
dc.contributor.referee2BRASILEIRO, Francisco Vilar.
dc.contributor.referee2IDBRASILEIRO, F. V.pt_BR
dc.contributor.referee2Latteshttp://lattes.cnpq.br/5957855817378897pt_BR
dc.description.resumoA era digital exige software seguro. Fraquezas no código-fonte podem ter consequências graves, desde falhas de software até ataques cibernéticos. Modelos de Linguagem de Grande Porte (LLMs) como ChatGPT 3.5, Gemini 1.0, Claude 3 Sonnet e Mistral Large surgem como ferramentas promissoras para auxiliar na detecção de fraquezas em código-fonte. Este projeto avalia o desempenho de LLMs na detecção de 56 exemplos de fraquezas em código-fonte. Os resultados demonstram que as LLMs podem ser ferramentas importantes para programadores. Na nossa avaliação, as LLMs detectaram 75% das fraquezas de diferentes tipos como: SQL Injection, Cross-site Scripting, Out-of-bounds Write e Null Pointer Dereference. O Claude 3 Sonnet foi a LLM com o melhor resultado.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentCentro de Engenharia Elétrica e Informática - CEEIpt_BR
dc.publisher.initialsUFCGpt_BR
dc.subject.cnpqCiência da Computaçãopt_BR
dc.titleDetectando fraquezas usando modelos de linguagem de grande porte: uma avaliação comparativa.pt_BR
dc.date.issued2024-05-15
dc.description.abstractThe digital age demands secure software. Weaknesses in source code can have serious consequences, ranging from software failures to cyberattacks. Large Language Models (LLMs) such as ChatGPT 3.5, Gemini 1.0, Claude 3 Sonnet, and Mistral Large emerge as promising tools to aid in the detection of weaknesses in source code. This project evaluates the performance of LLMs in detecting 56 examples of weaknesses in source code. The results demonstrate that LLMs can be important tools for programmers. In our evaluation, LLMs detected 75% of the weaknesses of different types such as: SQL Injection, Cross-site Scripting, Out-of-bounds Write, and Null Pointer Dereference. Claude 3 Sonnet was the LLM with the best result.pt_BR
dc.identifier.urihttp://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38053
dc.date.accessioned2024-09-26T16:37:06Z
dc.date.available2024-09-26
dc.date.available2024-09-26T16:37:06Z
dc.typeTrabalho de Conclusão de Cursopt_BR
dc.subjectModelos de Linguagempt_BR
dc.subjectChatGPT 3.5pt_BR
dc.subjectGemini 1.0pt_BR
dc.subjectClaude 3pt_BR
dc.subjectSonnetpt_BR
dc.subjectMistral Largept_BR
dc.subjectCódigo-fonte - Fraquezaspt_BR
dc.subjectLanguage Modelspt_BR
dc.subjectWeaknessespt_BR
dc.subjectSource Code - Weaknessespt_BR
dc.rightsAcesso Abertopt_BR
dc.creatorMAIA SOBRINHO, Kleber Reudo Filgueiras.
dc.publisherUniversidade Federal de Campina Grandept_BR
dc.languageporpt_BR
dc.title.alternativeDetecting weaknesses using large language models: a comparative evaluation.pt_BR
dc.identifier.citationMAIA SOBRINHO, Kleber Reudo Filgueiras. Detectando fraquezas usando modelos de linguagem de grande porte: uma avaliação comparativa. 2024. 14 f. Artigo (Bacharelado em Ciência da Computação) - Universidade Federal de Campina Grande, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2024. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38053pt_BR
Appears in Collections:Trabalho de Conclusão de Curso - Artigo - Ciência da Computação

Files in This Item:
File Description SizeFormat 
KLEBER REUDO FILGUEIRAS MAIA SOBRINHO-ARTIGO-CEEI-CIÊNCIA DA COMPUTAÇÃO (2024).pdf367.87 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.