Please use this identifier to cite or link to this item: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38144
Full metadata record
DC FieldValueLanguage
dc.creator.IDCAVALCANTI, H. B.pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/1077239857213243pt_BR
dc.contributor.advisor1CAMPELO, Claudio Elízio Calazans.
dc.contributor.advisor1IDCAMPELO, Claudio E. C.pt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/2042247762832979pt_BR
dc.contributor.referee1MARINHO, Leandro Balby.
dc.contributor.referee1IDMARINHO, L. B.pt_BR
dc.contributor.referee1Latteshttp://lattes.cnpq.br/3728312501032061pt_BR
dc.contributor.referee2BRASILEIRO, Francisco Vilar.
dc.contributor.referee2IDBRASILEIRO, F.pt_BR
dc.contributor.referee2Latteshttp://lattes.cnpq.br/5957855817378897pt_BR
dc.description.resumoO poder legislativo no Brasil é uma das três funções essenciais do Estado. No entanto, há um desafio evidente em relação ao acompanhamento das discussões nos órgãos públicos por parte da população. Isso se deve à extensão considerável e ao volume significativo dessas reuniões, tornando-as inacessíveis para muitos cidadãos. Para enfrentar esse desafio, este estudo utilizou as notas taquigráficas do Senado Federal do ano de 2023, que são transcrições dos debates parlamentares, com o objetivo de avaliar o potencial de Grandes Modelos de Linguagem (do inglês, Large Language Models-LLMs), de detectar tópicos relevantes discutidos pelos parlamentares e o posicionamento deles em relação a esses tópicos, classificando-os como a favor, neutro ou contra. Foram realizados experimentos, ambos utilizando o modelo GPT-3.5-Turbo, para as tarefas mencionadas. O primeiro experimento empregou uma técnica de compressão de dados antes de fornecer a entrada para o GPT e abrangeu reuniões de diferentes tamanhos. O segundo experimento não envolveu compressão e focou apenas em reuniões pequenas. Os resultados indicam que o modelo teve um desempenho superior para reuniões pequenas. Além disso, em um panorama geral para reuniões independentes de tamanho, o modelo teve um desempenho superior na tarefa de detecção de tópicos, com uma precisão média de aproximadamente 70%, enquanto na detecção de posicionamento teve um desempenho razoável com uma precisão média de aproximadamente 60%.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentCentro de Engenharia Elétrica e Informática - CEEIpt_BR
dc.publisher.initialsUFCGpt_BR
dc.subject.cnpqCiência da Computaçãopt_BR
dc.titleAvaliação de grandes modelos de linguagem para detecção de tópicos e posicionamentos em debates: um estudo de caso no contexto do Senado Federal.pt_BR
dc.date.issued2024-05-15
dc.description.abstractLegislative power in Brazil is one of the three essential functions of the State. However, there is a clear challenge for the population to follow discussions in public bodies. This is due to the considerable length and volume of these meetings, making them inaccessible to many citizens. To address this challenge, this study used the Federal Senate's 2023 tachygraph notes, which are transcripts of parliamentary debates, with the objective of evaluating the potential of Large Language Models (LLMs) to detect relevant topics discussed by parliamentarians and their stance on these topics, classifying them as in for, neutral or against. Experiments were carried out, both using the GPT-3.5-Turbo model, for the tasks mentioned. The first experiment used a data compression technique before providing input to the GPT and covered meetings of different sizes. The second experiment did not involve compression and focused only on small meetings. The results indicate that the model performed better for small meetings. In addition, in a general overview for size-independent meetings, the model performed better in the topic detection task, with an average precision of approximately 70%, while in position detection it performed reasonably well with an average precision of approximately 60%.pt_BR
dc.identifier.urihttp://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38144
dc.date.accessioned2024-09-28T02:28:58Z
dc.date.available2024-09-27
dc.date.available2024-09-28T02:28:58Z
dc.typeTrabalho de Conclusão de Cursopt_BR
dc.subjectGrandes Modelos de Linguagem (LLMs)pt_BR
dc.subjectPolítica - Senado Federalpt_BR
dc.subjectDetecção de Tópicospt_BR
dc.subjectDetecção de Posicionamentospt_BR
dc.subjectLarge Language Models (LLMs)pt_BR
dc.subjectPolitics - Federal Senatept_BR
dc.subjectTopic Detectionpt_BR
dc.subjectPosition Detectionpt_BR
dc.rightsAcesso Abertopt_BR
dc.creatorCAVALCANTI, Helen Bento.
dc.publisherUniversidade Federal de Campina Grandept_BR
dc.languageporpt_BR
dc.title.alternativeEvaluation of large language models for detecting topics and stances in debates: a case studyin the context of Federal Senate.pt_BR
dc.identifier.citationCAVALCANTI, Helen Bento. Avaliação de grandes modelos de linguagem para detecção de tópicos e posicionamentos em debates: um estudo de caso no contexto do Senado Federal. 2024. 13 f. Artigo (Bacharelado em Ciência da Computação) - Universidade Federal de Campina Grande, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2024.pt_BR
Appears in Collections:Trabalho de Conclusão de Curso - Artigo - Ciência da Computação

Files in This Item:
File Description SizeFormat 
HELEN BENTO CAVALCANTI-ARTIGO-CIÊNCIA DA COMPUTAÇÃO-CEEI (2024).pdf419.78 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.