LegalTech & Compliance Report Series – Vol. 2025
PT:
Este parecer analisa juridicamente o PL 2338/2023, conhecido como Marco Legal da Inteligência Artificial no Brasil, sob a ótica comparada da LGPD (Lei nº 13.709/2018), GDPR europeu e CPRA californiano, destacando convergências e lacunas normativas.
Principais pontos:
Finalidade: Harmonizar inovação tecnológica com direitos fundamentais.
Escopo: Estabelece diretrizes éticas e técnicas para o uso responsável da IA.
Base Legal: Integra-se à LGPD como norma complementar (lex specialis).
Impacto: Introduz governança algorítmica e responsabilidade objetiva.
Aplicação: Cria oportunidades em compliance, auditoria e consultoria jurídica.
EN:
This legal opinion analyzes Bill 2338/2023, Brazil’s AI Legal Framework, through a comparative perspective with the LGPD (General Data Protection Law), the EU GDPR, and California’s CPRA, identifying regulatory overlaps and gaps.
Key points:
Purpose: Align technological innovation with fundamental rights.
Scope: Establishes ethical and technical rules for responsible AI use.
Legal Basis: Complements the LGPD as a lex specialis regulation.
Impact: Introduces algorithmic governance and strict liability.
Application: Creates opportunities in compliance, auditing, and legal advisory.
PT:
O Projeto de Lei nº 2338/2023, conhecido como Marco Legal da Inteligência Artificial no Brasil, representa um marco histórico para a regulação da IA. Ele busca equilibrar a inovação tecnológica com a proteção de direitos fundamentais, inspirando-se em modelos internacionais como o AI Act da União Europeia, o AI Bill of Rights dos Estados Unidos (2022) e os Princípios da OCDE para Inteligência Artificial (2019).
Seu texto estabelece princípios de centralidade da pessoa humana, transparência, não discriminação, responsabilidade civil e proteção de dados. Assim como a LGPD, o PL reconhece que os dados e as decisões automatizadas devem respeitar a autodeterminação informativa e a dignidade humana.
EN:
Bill 2338/2023, known as Brazil’s AI Legal Framework, represents a historic milestone for AI regulation. It seeks to balance technological innovation with fundamental rights protection, drawing inspiration from international models such as the EU AI Act, the U.S. AI Bill of Rights (2022), and the OECD Principles on Artificial Intelligence (2019).
The bill emphasizes human centrality, transparency, non-discrimination, civil liability, and data protection. Like the LGPD, it recognizes that data and automated decisions must respect informational self-determination and human dignity.
| Regulação / Regulation | Natureza Jurídica / Legal Nature | Fundamento Central / Core Principle |
|---|---|---|
| GDPR (UE) | Regime de direitos fundamentais | Dignidade humana e controle sobre dados pessoais / Human dignity and data control |
| CPRA (EUA) | Regime de governança algorítmica | Transparência e accountability corporativa / Transparency and corporate accountability |
| LGPD (Brasil) | Regime híbrido (direitos + governança) | Autodeterminação informativa e proporcionalidade / Informational self-determination and proportionality |
| PL 2338/2023 | Lex specialis para IA | Segurança, transparência e explicabilidade / Safety, transparency, and explainability |
PT: A LGPD atua como pilar horizontal da proteção de dados, enquanto o PL 2338/2023 estabelece o pilar vertical da regulação algorítmica.
EN: The LGPD serves as the horizontal pillar of data protection, while Bill 2338/2023 forms the vertical pillar of algorithmic regulation.
PT:
O Art. 20 da LGPD e os Arts. 9º e 10 do PL 2338/2023 convergem ao garantir o direito à revisão humana em decisões automatizadas de impacto significativo.
“O titular tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado […]” (Art. 20, LGPD)
“Sistemas de IA que influenciam decisões críticas […] devem oferecer explicações claras e acesso à revisão humana.” (Art. 9º e 10, PL 2338/2023)
O PL operacionaliza o direito previsto na LGPD ao exigir explicabilidade técnica, relatórios de impacto algorítmico e criação de revisão automatizada qualificada, que une supervisão humana e rastreabilidade técnica.
EN:
Articles 9 and 10 of Bill 2338/2023 expand Article 20 of the LGPD by requiring technical explainability and algorithmic impact reports, creating a new standard: qualified automated review, combining human oversight and technical traceability.
| Regulação / Regulation | Níveis de Risco / Risk Levels |
| AI Act (UE) | 4 níveis: mínimo, limitado, alto, inaceitável |
| PL 2338/2023 (Brasil) | 2 níveis: alto e excessivo |
| LGPD | Avaliação de impacto de dados pessoais (Art. 38) |
PT: O modelo brasileiro é mais conciso, mas cria uma base sólida para auditorias e governança de IA. Empresas poderão integrar seus Relatórios de Impacto à Proteção de Dados (RIPD) da LGPD com os novos Relatórios de Impacto Algorítmico (RIA) do PL 2338/2023.
EN: Brazil’s model is more concise but provides a solid foundation for AI governance. Companies may integrate their Data Protection Impact Assessments (DPIAs) under the LGPD with the new Algorithmic Impact Reports (AIRs) under the bill.
| Tema / Topic | GDPR | CPRA | LGPD + PL 2338/2023 |
| Responsabilidade / Liability | Controlador e processador solidários | Accountability corporativa | Responsabilidade objetiva para agentes de IA |
| Transparência / Transparency | Obrigatória | Obrigatória + opt-out | Obrigatória + direito à explicação |
| Revisão Humana / Human Review | Garantida | Opt-out possível | Garantida e auditável |
| Sanções / Penalties | Até 4% do faturamento global | Até US$ 7.500 por infração | Até 2% do faturamento + penalidades civis |
PT: O PL introduz a responsabilidade objetiva para danos causados por sistemas de alto risco, impondo obrigações de diligência técnica, registro de vieses e logs de decisão. Empresas devem adotar protocolos de compliance algorítmico, com documentação de decisões, testes de equidade e relatórios de explicabilidade.
EN: The bill introduces strict liability for AI providers and operators, mandating technical diligence, bias testing, and decision logs. Companies must implement algorithmic compliance protocols, including fairness testing and explainability documentation.
PT: O Art. 8º cria o sandbox regulatório de IA, permitindo testar soluções em ambientes supervisionados — fundamental para ICTs Instituições Científicas e Tecnológicas.
Esse instrumento se alinha ao Marco Legal de Ciência, Tecnologia e Inovação (Lei 10.973/2004 e Decreto 9.283/2018), criando pontes entre regulação e desenvolvimento experimental supervisionado.
EN: Article 8 establishes the AI Regulatory Sandbox, enabling supervised testing — a key mechanism for innovation centers such as ICTs – Scientific Research Institutiions.
It aligns with Brazil’s Science, Technology and Innovation Legal Framework (Law 10.973/2004 and Decree 9.283/2018), bridging regulation and supervised experimental development.
PT: Ainda em debate, a fiscalização poderá ser conduzida pela ANPD, conforme o Art. 55-K da LGPD, evitando sobreposição com novas entidades e otimizando recursos institucionais.
EN: Enforcement may be assigned to the Brazilian DPA (ANPD) under Article 55-K of the LGPD, preventing overlap with new entities and optimizing institutional resources.
PT: O PL transforma a prática jurídica, criando novas frentes:
Compliance e Due Diligence Algorítmica;
Contratos e Responsabilidade Civil de IA;
Governança e Auditoria de Dados.
EN: Bill 2338/2023 reshapes legal practice, opening fronts in:
Algorithmic Compliance and Due Diligence;
AI Liability and Contracting;
Data Governance and Auditing.
Essas frentes podem ser automatizadas via ferramentas de IA, integrando LGPD + PL 2338/2023 em auditorias preditivas e relatórios automatizados.
| Item | Descrição / Description |
| Avaliar riscos, vieses e impactos sociais da IA / Assess risks, bias, and social impact of AI. | |
| Garantir entendimento das lógicas decisórias / Ensure decision-making logic is understandable. | |
| Incluir humanos em decisões críticas / Include humans in critical decisions. | |
| Registrar decisões, parâmetros e resultados / Log decisions, parameters, and results. | |
| Reportar riscos e incidentes / Report risks and incidents to ANPD. |
PT:
O PL 2338/2023 reforça a visão de inovação com integridade, inspirada na LGPD, mas voltada à ética e à segurança dos sistemas inteligentes.
A LGPD protege dados pessoais; o PL 2338/2023 protege pessoas contra os efeitos da IA.
EN:
Bill 2338/2023 reinforces a vision of innovation with integrity, inspired by the LGPD but focused on the ethics and safety of intelligent systems.
The LGPD protects personal data; Bill 2338/2023 protects people from the effects of AI.
| Termo / Term | Definição / Definition |
| Explicabilidade / Explainability | Capacidade de compreender e justificar as decisões tomadas por um sistema de IA / The ability to understand and justify AI system decisions. |
| Accountability | Responsabilidade e transparência no uso e impacto da IA / Responsibility and transparency in AI use and impact. |
| Autodeterminação Informativa / Informational Self-Determination | Direito do titular de controlar o uso de seus dados pessoais / The right of individuals to control their personal data usage. |
| Revisão Automatizada Qualificada / Qualified Automated Review | Processo de revisão humana e técnica sobre decisões automatizadas / Human and technical review process over automated decisions. |
| Sandbox Regulatório / Regulatory Sandbox | Ambiente controlado para testes de inovação com supervisão regulatória / Controlled environment for innovation testing with regulatory oversight. |
Lei nº 13.709/2018 – LGPD (Art. 20, Art. 55-K)
Projeto de Lei nº 2338/2023 – Marco Legal da Inteligência Artificial
Regulation (EU) 2024/1689 – AI Act
U.S. White House – AI Bill of Rights (2022)
OECD – Principles on Artificial Intelligence (2019)
Lei nº 10.973/2004 e Decreto nº 9.283/2018 – Marco Legal de CT&I
MJZanon IP & Compliance – Curitiba, Brasil www.mjzanon.com
[email protected]
© 2025 MJZanon IP & Compliance – Todos os direitos reservados.