REPOSITORIO PUCSP Trabalho de Conclusão de Curso - TCC Trabalho de Conclusão de Curso - TCC
Use este identificador para citar ou linkar para este item: https://repositorio.pucsp.br/jspui/handle/handle/45781
Tipo: Trabalho de Conclusão de Curso
Título: A ilusão da anonimização e os riscos de discriminação: dados sensíveis e o uso de IA sob a perspectiva da LGPD
Autor(es): Fontes, Larissa Maria da Silva
Primeiro Orientador: Andrade, Vitor Morais de
Resumo: A presente pesquisa encontra-se consubstanciada em uma análise jurídica rigorosa acerca da utilização de dados sensíveis por sistemas de inteligência artificial (IA). O tema, premente relevante no contexto do Direito Digital contemporâneo, aborda sobre a expansão tecnológica e da necessidade de aferir a adaptabilidade da Lei Geral de Proteção de Dados (Lei nº 13.709/2018 – LGPD). O problema fulcral que impulsiona esta investigação pode ser formulado nos seguintes termos: em que medida a anonimização prevista na LGPD é eficaz para proteger dados sensíveis contra discriminação em sistemas de inteligência artificial, e quais adaptações jurídicas e tecnológicas são necessárias para mitigar esses riscos?. Dito isso, a principal hipótese que permeia o trabalho é a de que a anonimização, conforme delineada na LGPD, não possui suficiência para eliminar os riscos de discriminação que acompanham o uso de dados sensíveis por algoritmos de inteligência artificial. Isso se deve, data vênia, à latente possibilidade de reidentificação dos dados previamente anonimizados e à manifesta presença de vieses algorítmicos nos sistemas de IA, os quais podem gerar discriminações não integralmente mitigadas pelas disposições legais vigentes. Outrossim, aventa-se a hipótese de que a ausência de fiscalização efetiva e de regulamentações específicas para o emprego da IA em conjunto com dados sensíveis contribui, de maneira inequívoca, para a perpetuação dessas vulnerabilidades no ordenamento jurídico brasileiro, que reside na urgência e no caráter exponencial do uso da IA em setores vitais, tais como saúde, educação e mercado de trabalho, onde decisões automatizadas impactam diretamente direitos fundamentais, sobretudo o direito à igualdade e à não discriminação. O estudo buscará, assim, contribuir para a compreensão crítica das lacunas da legislação e sugerir soluções que fortaleçam a proteção contra discriminações algorítmicas. Por derradeiro, considera-se que a proposição de soluções técnicas e jurídicas poderá mitigar os riscos de discriminação, promovendo uma maior compatibilidade entre a LGPD e as práticas tecnológicas contemporâneas
Abstract: This research is based on a rigorous legal analysis of the use of sensitive data by artificial intelligence (AI) systems. The topic, which is highly relevant in the context of contemporary digital law, addresses technological expansion and the need to assess the adaptability of the General Data Protection Law (Law No. 13,709/2018 – LGPD). The central problem driving this investigation can be formulated as follows: to what extent is the anonymization provided for in the LGPD effective in protecting sensitive data against discrimination in artificial intelligence systems, and what legal and technological adaptations are necessary to mitigate these risks? That said, the main hypothesis underlying this work is that anonymization, as outlined in the LGPD, is not sufficient to eliminate the risks of discrimination that accompany the use of sensitive data by artificial intelligence algorithms. This is due, with all due respect, to the latent possibility of re-identification of previously anonymized data and the manifest presence of algorithmic biases in AI systems, which can generate discrimination that is not fully mitigated by current legal provisions. Furthermore, there is a hypothesis that the absence of effective oversight and specific regulations for the use of AI in conjunction with sensitive data contributes unequivocally to the perpetuation of these vulnerabilities in the Brazilian legal system, which lies in the urgency and exponential nature of the use of AI in vital sectors, such as health, education, and the labor market, where automated decisions directly impact fundamental rights, especially the right to equality and non-discrimination. The study will thus seek to contribute to a critical understanding of the gaps in legislation and suggest solutions that strengthen protection against algorithmic discrimination. Ultimately, it is considered that proposing technical and legal solutions could mitigate the risks of discrimination, promoting greater compatibility between the LGPD and contemporary technological practices
Palavras-chave: Direito digital
Proteção de dados
Anonimização
LGPD
Inteligência artificial
Digital law
Data protection
Anonymization
LGPD
Artificial intelligence
CNPq: CNPQ::CIENCIAS SOCIAIS APLICADAS::DIREITO
Idioma: por
País: Brasil
Editor: Pontifícia Universidade Católica de São Paulo
Sigla da Instituição: PUC-SP
metadata.dc.publisher.department: Faculdade de Direito
metadata.dc.publisher.program: Graduação em Direito
Citação: Fontes, Larissa Maria da Silva. A ilusão da anonimização e os riscos de discriminação: dados sensíveis e o uso de IA sob a perspectiva da LGPD. 2025. Trabalho de Conclusão de Curso (Graduação em Direito) - Faculdade de Direito da Pontifícia Universidade Católica de São Paulo, São Paulo, 2025.
Tipo de Acesso: Acesso Aberto
URI: https://repositorio.pucsp.br/jspui/handle/handle/45781
Data do documento: 20-Out-2025
Aparece nas coleções:Trabalho de Conclusão de Curso - TCC

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Larissa M S Fontes - 2025_VITOR MORAIS DE ANDR.pdf1,16 MBAdobe PDFThumbnail
Visualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.