Inteligência artificial

Marco Legal da IA será votado na próxima terça no Senado

Texto reúne 10 projetos que criam arcabouço legal para a IA no Brasil. Veja quais serão os impactos para as startups

Reunoão da comissão temporária do Senado sobre a regulamentação da IA contou com manifestantes a favor do Marco Legal. Foto: Agência Senado
Reunoão da comissão temporária do Senado sobre a regulamentação da IA contou com manifestantes a favor do Marco Legal. Foto: Agência Senado

O presidente do Senado, Rodrigo Pacheco (PSD-MG), anunciou nesta quinta-feira (28) que a Casa fará um esforço nas próximas semanas, antes do recesso parlamentar, para colocar alguns projetos em votação. Entre eles, o Marco Legal da IA, que vinha sendo analisado pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) no Senado, e deve ser votado na terça-feira.

O texto original é de autoria do próprio Rodrigo Pacheco e tramitava em conjunto com outros nove projetos que estabelecem um arcabouço legal para o desenvolvimento e uso da IA no país. Essas propostas estão agora concentradas em um único substitutivo, apresentado pela comissão em junho.

O PL 2.338/2023 vai na direção da regulamentação criada pela União Europeia e, em linhas gerais, cria normas para o desenvolvimento, implementação e uso responsável de sistemas de IA no país, estabelecendo graus de risco para esses sistemas.

A entidade pública responsável por supervisionar as empresas no desenvolvimento e aplicação dessas tecnologias ainda não foi definida. Órgãos como a Agência Nacional de Telecomunicações (Anatel) e o Conselho Administrativo de Defesa Econômica (Cade) já manifestaram interesse em abraçar essa função. Além do controle da IA, a autoridade competente também terá o papel de regulamentar os sistemas de risco excessivo e de alto risco, e aplicar as sanções administrativas em caso de descumprimento das normas.

De acordo com o texto, essas sanções podem ser desde uma advertência até multa de 2% sobre o faturamento da empresa, limitada a R$ 50 milhões. Ou, ainda, suspensão do desenvolvimento, fornecimento ou operação do sistema de inteligência artificial.

Os projetos de lei incorporados ao Marco Legal da IA são, além do PL 2.338/2023, o PL 21/2020, PL 5.051/2019, PL 5.691/2019, PL 872/2021, PL 3.592/2023, PL 145/2024, PL 146/2024, PL 210/2024 e PL 266/2024.

Como a regulamentação afeta as startups

Para as startups, a regulação da IA pode representar tanto uma oportunidade quanto um desafio. Por um lado, um marco regulatório claro pode oferecer segurança jurídica, atraindo investimentos e facilitando parcerias internacionais. Por outro, as exigências de conformidade podem ser um obstáculo para empresas emergentes, que muitas vezes operam com recursos limitados e em um ambiente de incerteza.

“Startups tendem a ser mais vulneráveis a regulamentações complexas, principalmente se exigirem investimentos adicionais em infraestrutura e processos que não estavam previstos no estágio inicial,” explica Barbara Furiati, diretora de políticas públicas da Abstartups.

O Projeto de Lei 21/20 prevê, por exemplo, que as empresas desenvolvedoras de IA deverão garantir que seus sistemas sejam auditáveis e explicáveis, ou seja, que as decisões automatizadas possam ser compreendidas e questionadas pelos usuários. Para startups que estão na fase inicial de desenvolvimento, essas exigências podem implicar em custos adicionais e na necessidade de contratação de especialistas, o que pode ser inviável financeiramente.

“A Abstartups acredita que o PL poderia incorporar certas flexibilizações, como uma abordagem escalonada que permita às startups mais tempo e suporte técnico e financeiro para se adequarem,” sugere Furiati.

Outro desafio para as startups é a proteção de dados. A Lei Geral de Proteção de Dados (LGPD), que está em vigor, estabelece diretrizes rígidas para o tratamento de informações pessoais, e a nova regulação de IA pode ampliar ainda mais essas exigências. Startups que desenvolvem soluções baseadas em IA terão que garantir que seus sistemas estejam em conformidade não apenas com a LGPD, mas também com as novas regras que venham a ser estabelecidas, o que pode demandar investimentos em tecnologia e consultoria jurídica.

Uma das abordagens que têm sido adotadas em diversas partes do mundo para facilitar a adaptação das empresas às novas regulações são os sandboxes regulatórios. Essas iniciativas permitem que startups operem em um ambiente controlado e supervisionado, onde podem testar e desenvolver suas inovações sem estarem totalmente sujeitas às regras regulatórias vigentes. Esse tipo de ambiente favorece a experimentação e o aprendizado, possibilitando os  ajustes em soluções conforme as exigências legais, antes de entrarem no mercado de forma definitiva.

O Brasil, que já possui experiências em sandboxes no setor financeiro, como o Banco Central, poderá expandir essa prática para o setor de IA, proporcionando um caminho mais seguro e viável para startups se adaptarem à nova regulação.

Sobre esse tema, a diretora da Abstartups pondera que o desenvolvimento de sandboxes também pode ajudar a construir uma base sólida de melhores práticas e parâmetros regulatórios específicos para IA.

“A Autoridade Nacional de Proteção de Dados (ANPD), que já iniciou discussões sobre a criação de um sandbox regulatório para IA e proteção de dados pessoais no Brasil, indica um movimento positivo para o setor e sinaliza um ambiente regulatório mais flexível e adaptado às necessidades do ecossistema de startups”, conclui.

Diferenças para a lei europeia

Mas, enquanto o país ainda está em fase de discussão e aprovação de seu marco regulatório, a União Europeia já está na vanguarda com o desenvolvimento do AI Act, que entrou em vigor no início do mês de agosto. O AI Act da UE estabelece uma abordagem baseada em risco, classificando as aplicações de IA em diferentes categorias, desde baixo até inaceitável, e impondo regras mais rígidas para sistemas considerados mais críticos.

Essa abordagem contrasta com a proposta brasileira, que, embora também estabeleça princípios de transparência e responsabilidade, ainda precisa definir com maior clareza como essas diretrizes serão implementadas na prática. A UE também se destaca ao exigir que todas as aplicações de IA de alto risco passem por um processo de certificação antes de serem comercializadas, o que pode representar uma barreira adicional para startups que queiram atuar no mercado europeu.

Quadro comparativo das classificações de riscos atribuídas na UE e no PL 2338/23

CLASSIFICAÇÃOCOMUNIDADE EUROPEIA
Artificial Intelligence Act
BRASIL
Projeto de Lei nº 2338/2023
Inaceitável (proibido)Algoritmos que realizem pontuações sociais ou classifiquem os indivíduos com base em seu comportamento, assim como os sistemas de policiamento preditivoSistemas de categorização social ou com capacidade de influenciar o comportamento de grupos vulneráveis.
Risco ElevadoSerão submetidos a avaliações prévias e posteriores à comercialização os sistemas de gestão de infraestrutura, como transporte e educação, bem como os sistemas de controle de fronteiras ou assistência jurídica.Precisam ser examinados e supervisionados antes e durante sua implementação – Sistemas automatizados de avaliação de estudantes, candidatos a emprego, solicitações de crédito ou benefícios sociais, diagnósticos médicos, risco de atividades criminais e comportamento, e veículos autônomos.
Risco limitadoDevem seguir requisitos mínimos de transparência os programas que geram deepfakes e chatbots.Não há menção.
Risco mínimoSem exigências legais suplementares além das leis já em vigor.Não há menção.

Fonte: Parlamento Europeu e PL 2338/2023, Agência Senado