PL 2.338/2023: entenda o Marco Legal da IA no Brasil

26/12/2024
 / 
27/12/2024
 / 
7 minutos

A Inteligência Artificial está cada vez mais integrada ao nosso cotidiano, impactando desde atividades básicas do dia a dia até processos complexos do ambiente corporativo. No setor jurídico, seu uso já automatiza tarefas, organiza grandes volumes de dados e melhora a eficiência das operações. Porém, seu avanço também gera preocupações sobre segurança, ética e transparência. 

Para entender melhor esses desafios, as autoridades brasileiras têm discutido alternativas para regular o uso da IA, com debates concentrados no Projeto de Lei 2.338/2023. Essa proposta busca estabelecer regras claras para a aplicação da IA, com o objetivo de evitar riscos e garantir um uso mais responsável. 

Neste artigo vamos apresentar um breve panorama sobre os principais pontos do Projeto de Lei 2.338/2023, as discussões em andamento e o atual status do Marco Legal da IA no Senado.

O Marco Legal da Inteligência Artificial pretende criar um conjunto de normas para orientar o uso da Inteligência Artificial no Brasil. Seu objetivo é garantir que as soluções de IA sejam utilizadas de forma ética, segura e alinhada aos direitos fundamentais.

Em tramitação no Senado Federal, o Projeto de Lei 2.338/2023 é o principal documento sobre o tema. Ele propõe a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Coordenado pela Autoridade Nacional de Proteção de Dados (ANPD) e estruturado em conjunto com as agências reguladoras setoriais, tem como foco é garantir que os sistemas de IA sejam seguros e transparentes.

O PL 2.338/2023 e a classificação dos sistemas de IA por risco

Ao estruturar o Marco Legal da IA no Brasil, o PL 2.338/2023 divide os sistemas de IA em três categorias de risco. Essa classificação analisa o potencial da IA de causar danos e na necessidade de controle. São elas:

  1. Risco excessivo: Sistemas com alto potencial de causar danos, como discriminação ou violação de direitos fundamentais. Seu uso será proibido.
  2. Alto risco: Sistemas que demandam maior vigilância e controle, exigindo auditorias regulares e avaliações de impacto. Como exemplos, destacam-se as ferramentas usadas para seleção de candidatos ou monitoramento biométrico.
  3. Baixo risco: Sistemas considerados seguros para aplicações cotidianas, como assistentes virtuais e recomendações de compras.


A classificação segue o modelo do EU AI Act, uma referência global em regulamentação de IA. Assim como a proposta brasileira, o regulamento europeu classifica os sistemas de IA com base em seu impacto sobre os direitos fundamentais, saúde e segurança.

Porém, enquanto o EU AI Act possui uma estrutura detalhada e uniforme para os países da União Europeia, o Brasil enfrenta o desafio de adaptar essas regras ao contexto local. Por aqui, é essencial um olhar mais cuidadoso, com o objetivo de evitar barreiras que dificultem a inovação, especialmente para pequenas empresas e startups.

Além disso, as discussões no Brasil destacam a necessidade de que a classificação considere a diversidade de aplicações da IA em setores como saúde, educação e justiça. Nesses setores, a IA cria oportunidades importantes, mas também pode aumentar desigualdades se não for usada de forma regulada e ética. Outro ponto que ainda está em aberto é como o governo monitorará e atualizará as categorias de risco, garantindo que a regulamentação acompanhe os avanços tecnológicos e evite desatualizações.

Impacto do PL 2.338/2023 nos departamentos jurídicos

A regulamentação de IA deve trazer mudanças importantes para os departamentos jurídicos. Hoje, muitas empresas já utilizam sistemas que contam com IA para automatizar contratos, prever resultados de litígios, monitorar conformidade regulatória e gerenciar grandes volumes de dados.

No contexto previsto pelo PL 2.338/2023, os profissionais que atuam no jurídicos corporativos deverão conduzir avaliações de impacto que identifiquem riscos associados ao uso de ferramentas classificadas como de alto risco, seja para o próprio departamento ou para as demais operações da empresa.

Isso inclui documentar os processos de tomada de decisão automatizada, garantindo que estejam alinhados com os parâmetros estabelecidos pelo marco regulatório. Além disso, será essencial capacitar equipes para compreender as implicações legais do uso da IA e implementar políticas de governança que assegurem conformidade e minimizem passivos jurídicos.

Caberá ao departamento jurídico atuar como um mediador entre as áreas técnicas, responsáveis pelo desenvolvimento ou adoção de soluções de IA, e as exigências legais impostas pela legislação. Assim, o conhecimento aprofundado sobre as diretrizes e as estratégias de gestão integrada para um uso estratégico de tecnologia serão diferenciais importantes para os profissionais do direito nesse novo cenário.

PL 2.338/2023: discussões e desafios no Senado

As discussões no Senado em torno do PL 2.338/2023 refletem preocupações práticas sobre como regulamentar a IA de maneira eficaz. Um ponto central do debate é o impacto econômico da regulamentação sobre startups e pequenas empresas. Muitos alertam que exigências rígidas podem desestimular a inovação em um mercado que ainda está se desenvolvendo no Brasil. Outros destacam que a falta de regras claras poderia abrir brechas para abusos, comprometendo direitos fundamentais e a confiança pública.

Além disso, outro tema recorrente é o modelo de governança centralizado pelo Sistema Nacional de Regulação e Governança de Inteligência Artificial. Há uma preocupação de que a concentração de responsabilidades em um único órgão possa criar atrasos e burocracias excessivas. Por outro lado, especialistas argumentam que um sistema centralizado garante maior uniformidade na aplicação das regras e evita conflitos entre diferentes setores regulados.

A harmonização do Marco Legal com outras normas internacionais também está em discussão. O alinhamento com regulamentações como o EU AI Act é visto como essencial para que o Brasil participe de cadeias globais de inovação e comércio. No entanto, isso deve ser feito sem ignorar as condições do mercado nacional e a necessidade de políticas públicas que incentivem o uso responsável da tecnologia em setores prioritários.

Por fim, as audiências públicas têm destacado a importância de incluir a sociedade civil no processo, garantindo que a regulamentação reflita interesses sociais diversos. Essas questões permanecem em aberto, e o texto final deverá buscar um equilíbrio entre essas demandas concorrentes.

Status atual do Projeto de Lei 2.338/2023

Em dezembro de 2024, o Senado Federal aprovou o Projeto de Lei 2.338/2023. Na sequência, a Câmara dos Deputados analisará o texto, e as comissões competentes avaliarão antes da votação no plenário. Se o texto aprovado sem alterações, seguirá para sanção presidencial

Entre os pontos que ainda podem ser objeto de debate na Câmara estão:

  • A definição das competências do Sistema Nacional de Regulação e Governança de IA, especialmente no que diz respeito à cooperação entre a ANPD e as agências reguladoras setoriais.
  • As exigências para sistemas de alto risco, que podem gerar impacto significativo no setor privado, especialmente em startups e pequenas empresas.
  • A adaptação da legislação brasileira ao contexto internacional.

Além disso, setores da sociedade civil e associações empresariais têm buscado garantir que o texto final contemple proteções para os direitos fundamentais e incentive a adoção de IA em setores estratégicos, como saúde, educação e justiça.

A expectativa é que a tramitação na Câmara aconteça no início de 2025, com possibilidade de ajustes nas diretrizes. Caso o texto seja aprovado de forma definitiva e sancionado pela Presidência, a implementação das regras será gradual, permitindo um período de adaptação para empresas e órgãos públicos.

Quer entender mais sobre esse debate? Confira no Juriscast a conversa que tivemos com a Dra. Letícia Zanardo.

O que é o Marco Legal da Inteligência Artificial no Brasil?

O Marco Legal da Inteligência Artificial, proposto no PL 2.338/2023, busca regulamentar o uso ético e seguro da IA ​​no Brasil, promovendo a transparência e a proteção de direitos fundamentais.

Como o PL 2.338/2023 classifica os sistemas de IA?

O projeto classifica os sistemas de IA em três categorias: risco excessivo (uso proibido), alto risco (exige maior controle) e baixo risco (considerados seguros para aplicações cotidianas).

Conclusão

O Projeto de Lei 2.338/2023 é um marco necessário para a regulamentação do uso da inteligência artificial no Brasil. Ele oferece diretrizes importantes para proteger os direitos fundamentais, promover a transparência e incentivar o uso ético da tecnologia. Para o setor jurídico, o desafio será equilibrar o papel de regulador com o de facilitador da inovação.

À medida que a tecnologia avança, os gestores jurídicos devem se posicionar como guias no entendimento e aplicação das normas relacionadas à IA. Capacitação contínua, colaboração interdisciplinar e atenção às mudanças regulatórias serão indispensáveis.

Use as estrelas para avaliar

Média 5 / 5. 1

Nenhum voto até agora! Seja o primeiro a avaliar este post.

Deixe um comentário