Use este identificador para citar ou linkar para este item:
https://repositorio.pucsp.br/jspui/handle/handle/45781| Tipo: | Trabalho de Conclusão de Curso |
| Título: | A ilusão da anonimização e os riscos de discriminação: dados sensíveis e o uso de IA sob a perspectiva da LGPD |
| Autor(es): | Fontes, Larissa Maria da Silva |
| Primeiro Orientador: | Andrade, Vitor Morais de |
| Resumo: | A presente pesquisa encontra-se consubstanciada em uma análise jurídica rigorosa acerca da utilização de dados sensíveis por sistemas de inteligência artificial (IA). O tema, premente relevante no contexto do Direito Digital contemporâneo, aborda sobre a expansão tecnológica e da necessidade de aferir a adaptabilidade da Lei Geral de Proteção de Dados (Lei nº 13.709/2018 – LGPD). O problema fulcral que impulsiona esta investigação pode ser formulado nos seguintes termos: em que medida a anonimização prevista na LGPD é eficaz para proteger dados sensíveis contra discriminação em sistemas de inteligência artificial, e quais adaptações jurídicas e tecnológicas são necessárias para mitigar esses riscos?. Dito isso, a principal hipótese que permeia o trabalho é a de que a anonimização, conforme delineada na LGPD, não possui suficiência para eliminar os riscos de discriminação que acompanham o uso de dados sensíveis por algoritmos de inteligência artificial. Isso se deve, data vênia, à latente possibilidade de reidentificação dos dados previamente anonimizados e à manifesta presença de vieses algorítmicos nos sistemas de IA, os quais podem gerar discriminações não integralmente mitigadas pelas disposições legais vigentes. Outrossim, aventa-se a hipótese de que a ausência de fiscalização efetiva e de regulamentações específicas para o emprego da IA em conjunto com dados sensíveis contribui, de maneira inequívoca, para a perpetuação dessas vulnerabilidades no ordenamento jurídico brasileiro, que reside na urgência e no caráter exponencial do uso da IA em setores vitais, tais como saúde, educação e mercado de trabalho, onde decisões automatizadas impactam diretamente direitos fundamentais, sobretudo o direito à igualdade e à não discriminação. O estudo buscará, assim, contribuir para a compreensão crítica das lacunas da legislação e sugerir soluções que fortaleçam a proteção contra discriminações algorítmicas. Por derradeiro, considera-se que a proposição de soluções técnicas e jurídicas poderá mitigar os riscos de discriminação, promovendo uma maior compatibilidade entre a LGPD e as práticas tecnológicas contemporâneas |
| Abstract: | This research is based on a rigorous legal analysis of the use of sensitive data by artificial intelligence (AI) systems. The topic, which is highly relevant in the context of contemporary digital law, addresses technological expansion and the need to assess the adaptability of the General Data Protection Law (Law No. 13,709/2018 – LGPD). The central problem driving this investigation can be formulated as follows: to what extent is the anonymization provided for in the LGPD effective in protecting sensitive data against discrimination in artificial intelligence systems, and what legal and technological adaptations are necessary to mitigate these risks? That said, the main hypothesis underlying this work is that anonymization, as outlined in the LGPD, is not sufficient to eliminate the risks of discrimination that accompany the use of sensitive data by artificial intelligence algorithms. This is due, with all due respect, to the latent possibility of re-identification of previously anonymized data and the manifest presence of algorithmic biases in AI systems, which can generate discrimination that is not fully mitigated by current legal provisions. Furthermore, there is a hypothesis that the absence of effective oversight and specific regulations for the use of AI in conjunction with sensitive data contributes unequivocally to the perpetuation of these vulnerabilities in the Brazilian legal system, which lies in the urgency and exponential nature of the use of AI in vital sectors, such as health, education, and the labor market, where automated decisions directly impact fundamental rights, especially the right to equality and non-discrimination. The study will thus seek to contribute to a critical understanding of the gaps in legislation and suggest solutions that strengthen protection against algorithmic discrimination. Ultimately, it is considered that proposing technical and legal solutions could mitigate the risks of discrimination, promoting greater compatibility between the LGPD and contemporary technological practices |
| Palavras-chave: | Direito digital Proteção de dados Anonimização LGPD Inteligência artificial Digital law Data protection Anonymization LGPD Artificial intelligence |
| CNPq: | CNPQ::CIENCIAS SOCIAIS APLICADAS::DIREITO |
| Idioma: | por |
| País: | Brasil |
| Editor: | Pontifícia Universidade Católica de São Paulo |
| Sigla da Instituição: | PUC-SP |
| metadata.dc.publisher.department: | Faculdade de Direito |
| metadata.dc.publisher.program: | Graduação em Direito |
| Citação: | Fontes, Larissa Maria da Silva. A ilusão da anonimização e os riscos de discriminação: dados sensíveis e o uso de IA sob a perspectiva da LGPD. 2025. Trabalho de Conclusão de Curso (Graduação em Direito) - Faculdade de Direito da Pontifícia Universidade Católica de São Paulo, São Paulo, 2025. |
| Tipo de Acesso: | Acesso Aberto |
| URI: | https://repositorio.pucsp.br/jspui/handle/handle/45781 |
| Data do documento: | 20-Out-2025 |
| Aparece nas coleções: | Trabalho de Conclusão de Curso - TCC |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| Larissa M S Fontes - 2025_VITOR MORAIS DE ANDR.pdf | 1,16 MB | Adobe PDF | ![]() Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.

