REPOSITORIO PUCSP Trabalho de Conclusão de Curso - TCC Trabalho de Conclusão de Curso - TCC
Use este identificador para citar ou linkar para este item: https://repositorio.pucsp.br/jspui/handle/handle/45781
Registro completo de metadados
Campo DCValorIdioma
dc.creatorFontes, Larissa Maria da Silva
dc.creator.Latteshttp://lattes.cnpq.br/8286600959467172pt_BR
dc.contributor.advisor1Andrade, Vitor Morais de
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/8753341395392297pt_BR
dc.date.accessioned2025-12-11T18:39:02Z-
dc.date.available2025-12-11T18:39:02Z-
dc.date.issued2025-10-20
dc.identifier.citationFontes, Larissa Maria da Silva. A ilusão da anonimização e os riscos de discriminação: dados sensíveis e o uso de IA sob a perspectiva da LGPD. 2025. Trabalho de Conclusão de Curso (Graduação em Direito) - Faculdade de Direito da Pontifícia Universidade Católica de São Paulo, São Paulo, 2025.pt_BR
dc.identifier.urihttps://repositorio.pucsp.br/jspui/handle/handle/45781-
dc.description.resumoA presente pesquisa encontra-se consubstanciada em uma análise jurídica rigorosa acerca da utilização de dados sensíveis por sistemas de inteligência artificial (IA). O tema, premente relevante no contexto do Direito Digital contemporâneo, aborda sobre a expansão tecnológica e da necessidade de aferir a adaptabilidade da Lei Geral de Proteção de Dados (Lei nº 13.709/2018 – LGPD). O problema fulcral que impulsiona esta investigação pode ser formulado nos seguintes termos: em que medida a anonimização prevista na LGPD é eficaz para proteger dados sensíveis contra discriminação em sistemas de inteligência artificial, e quais adaptações jurídicas e tecnológicas são necessárias para mitigar esses riscos?. Dito isso, a principal hipótese que permeia o trabalho é a de que a anonimização, conforme delineada na LGPD, não possui suficiência para eliminar os riscos de discriminação que acompanham o uso de dados sensíveis por algoritmos de inteligência artificial. Isso se deve, data vênia, à latente possibilidade de reidentificação dos dados previamente anonimizados e à manifesta presença de vieses algorítmicos nos sistemas de IA, os quais podem gerar discriminações não integralmente mitigadas pelas disposições legais vigentes. Outrossim, aventa-se a hipótese de que a ausência de fiscalização efetiva e de regulamentações específicas para o emprego da IA em conjunto com dados sensíveis contribui, de maneira inequívoca, para a perpetuação dessas vulnerabilidades no ordenamento jurídico brasileiro, que reside na urgência e no caráter exponencial do uso da IA em setores vitais, tais como saúde, educação e mercado de trabalho, onde decisões automatizadas impactam diretamente direitos fundamentais, sobretudo o direito à igualdade e à não discriminação. O estudo buscará, assim, contribuir para a compreensão crítica das lacunas da legislação e sugerir soluções que fortaleçam a proteção contra discriminações algorítmicas. Por derradeiro, considera-se que a proposição de soluções técnicas e jurídicas poderá mitigar os riscos de discriminação, promovendo uma maior compatibilidade entre a LGPD e as práticas tecnológicas contemporâneaspt_BR
dc.description.abstractThis research is based on a rigorous legal analysis of the use of sensitive data by artificial intelligence (AI) systems. The topic, which is highly relevant in the context of contemporary digital law, addresses technological expansion and the need to assess the adaptability of the General Data Protection Law (Law No. 13,709/2018 – LGPD). The central problem driving this investigation can be formulated as follows: to what extent is the anonymization provided for in the LGPD effective in protecting sensitive data against discrimination in artificial intelligence systems, and what legal and technological adaptations are necessary to mitigate these risks? That said, the main hypothesis underlying this work is that anonymization, as outlined in the LGPD, is not sufficient to eliminate the risks of discrimination that accompany the use of sensitive data by artificial intelligence algorithms. This is due, with all due respect, to the latent possibility of re-identification of previously anonymized data and the manifest presence of algorithmic biases in AI systems, which can generate discrimination that is not fully mitigated by current legal provisions. Furthermore, there is a hypothesis that the absence of effective oversight and specific regulations for the use of AI in conjunction with sensitive data contributes unequivocally to the perpetuation of these vulnerabilities in the Brazilian legal system, which lies in the urgency and exponential nature of the use of AI in vital sectors, such as health, education, and the labor market, where automated decisions directly impact fundamental rights, especially the right to equality and non-discrimination. The study will thus seek to contribute to a critical understanding of the gaps in legislation and suggest solutions that strengthen protection against algorithmic discrimination. Ultimately, it is considered that proposing technical and legal solutions could mitigate the risks of discrimination, promoting greater compatibility between the LGPD and contemporary technological practicesen_US
dc.languageporpt_BR
dc.publisherPontifícia Universidade Católica de São Paulopt_BR
dc.publisher.departmentFaculdade de Direitopt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.initialsPUC-SPpt_BR
dc.publisher.programGraduação em Direitopt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectDireito digitalpt_BR
dc.subjectProteção de dadospt_BR
dc.subjectAnonimizaçãopt_BR
dc.subjectLGPDpt_BR
dc.subjectInteligência artificialpt_BR
dc.subjectDigital lawen_US
dc.subjectData protectionen_US
dc.subjectAnonymizationen_US
dc.subjectLGPDen_US
dc.subjectArtificial intelligenceen_US
dc.subject.cnpqCNPQ::CIENCIAS SOCIAIS APLICADAS::DIREITOpt_BR
dc.titleA ilusão da anonimização e os riscos de discriminação: dados sensíveis e o uso de IA sob a perspectiva da LGPDpt_BR
dc.typeTrabalho de Conclusão de Cursopt_BR
Aparece nas coleções:Trabalho de Conclusão de Curso - TCC

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Larissa M S Fontes - 2025_VITOR MORAIS DE ANDR.pdf1,16 MBAdobe PDFThumbnail
Visualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.