O presidente do Senado, Rodrigo Pacheco (PSD-MG), anunciou nesta quinta-feira (28) que a Casa fará um esforço nas próximas semanas, antes do recesso parlamentar, para colocar alguns projetos em votação. Entre eles, o Marco Legal da IA, que vinha sendo analisado pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) no Senado, e deve ser votado na terça-feira.
O texto original é de autoria do próprio Rodrigo Pacheco e tramitava em conjunto com outros nove projetos que estabelecem um arcabouço legal para o desenvolvimento e uso da IA no país. Essas propostas estão agora concentradas em um único substitutivo, apresentado pela comissão em junho.
O PL 2.338/2023 vai na direção da regulamentação criada pela União Europeia e, em linhas gerais, cria normas para o desenvolvimento, implementação e uso responsável de sistemas de IA no país, estabelecendo graus de risco para esses sistemas.
A entidade pública responsável por supervisionar as empresas no desenvolvimento e aplicação dessas tecnologias ainda não foi definida. Órgãos como a Agência Nacional de Telecomunicações (Anatel) e o Conselho Administrativo de Defesa Econômica (Cade) já manifestaram interesse em abraçar essa função. Além do controle da IA, a autoridade competente também terá o papel de regulamentar os sistemas de risco excessivo e de alto risco, e aplicar as sanções administrativas em caso de descumprimento das normas.
De acordo com o texto, essas sanções podem ser desde uma advertência até multa de 2% sobre o faturamento da empresa, limitada a R$ 50 milhões. Ou, ainda, suspensão do desenvolvimento, fornecimento ou operação do sistema de inteligência artificial.
Os projetos de lei incorporados ao Marco Legal da IA são, além do PL 2.338/2023, o PL 21/2020, PL 5.051/2019, PL 5.691/2019, PL 872/2021, PL 3.592/2023, PL 145/2024, PL 146/2024, PL 210/2024 e PL 266/2024.
Como a regulamentação afeta as startups
Para as startups, a regulação da IA pode representar tanto uma oportunidade quanto um desafio. Por um lado, um marco regulatório claro pode oferecer segurança jurídica, atraindo investimentos e facilitando parcerias internacionais. Por outro, as exigências de conformidade podem ser um obstáculo para empresas emergentes, que muitas vezes operam com recursos limitados e em um ambiente de incerteza.
“Startups tendem a ser mais vulneráveis a regulamentações complexas, principalmente se exigirem investimentos adicionais em infraestrutura e processos que não estavam previstos no estágio inicial,” explica Barbara Furiati, diretora de políticas públicas da Abstartups.
O Projeto de Lei 21/20 prevê, por exemplo, que as empresas desenvolvedoras de IA deverão garantir que seus sistemas sejam auditáveis e explicáveis, ou seja, que as decisões automatizadas possam ser compreendidas e questionadas pelos usuários. Para startups que estão na fase inicial de desenvolvimento, essas exigências podem implicar em custos adicionais e na necessidade de contratação de especialistas, o que pode ser inviável financeiramente.
“A Abstartups acredita que o PL poderia incorporar certas flexibilizações, como uma abordagem escalonada que permita às startups mais tempo e suporte técnico e financeiro para se adequarem,” sugere Furiati.
Outro desafio para as startups é a proteção de dados. A Lei Geral de Proteção de Dados (LGPD), que está em vigor, estabelece diretrizes rígidas para o tratamento de informações pessoais, e a nova regulação de IA pode ampliar ainda mais essas exigências. Startups que desenvolvem soluções baseadas em IA terão que garantir que seus sistemas estejam em conformidade não apenas com a LGPD, mas também com as novas regras que venham a ser estabelecidas, o que pode demandar investimentos em tecnologia e consultoria jurídica.
Uma das abordagens que têm sido adotadas em diversas partes do mundo para facilitar a adaptação das empresas às novas regulações são os sandboxes regulatórios. Essas iniciativas permitem que startups operem em um ambiente controlado e supervisionado, onde podem testar e desenvolver suas inovações sem estarem totalmente sujeitas às regras regulatórias vigentes. Esse tipo de ambiente favorece a experimentação e o aprendizado, possibilitando os ajustes em soluções conforme as exigências legais, antes de entrarem no mercado de forma definitiva.
O Brasil, que já possui experiências em sandboxes no setor financeiro, como o Banco Central, poderá expandir essa prática para o setor de IA, proporcionando um caminho mais seguro e viável para startups se adaptarem à nova regulação.
Sobre esse tema, a diretora da Abstartups pondera que o desenvolvimento de sandboxes também pode ajudar a construir uma base sólida de melhores práticas e parâmetros regulatórios específicos para IA.
“A Autoridade Nacional de Proteção de Dados (ANPD), que já iniciou discussões sobre a criação de um sandbox regulatório para IA e proteção de dados pessoais no Brasil, indica um movimento positivo para o setor e sinaliza um ambiente regulatório mais flexível e adaptado às necessidades do ecossistema de startups”, conclui.
Diferenças para a lei europeia
Mas, enquanto o país ainda está em fase de discussão e aprovação de seu marco regulatório, a União Europeia já está na vanguarda com o desenvolvimento do AI Act, que entrou em vigor no início do mês de agosto. O AI Act da UE estabelece uma abordagem baseada em risco, classificando as aplicações de IA em diferentes categorias, desde baixo até inaceitável, e impondo regras mais rígidas para sistemas considerados mais críticos.
Essa abordagem contrasta com a proposta brasileira, que, embora também estabeleça princípios de transparência e responsabilidade, ainda precisa definir com maior clareza como essas diretrizes serão implementadas na prática. A UE também se destaca ao exigir que todas as aplicações de IA de alto risco passem por um processo de certificação antes de serem comercializadas, o que pode representar uma barreira adicional para startups que queiram atuar no mercado europeu.
Quadro comparativo das classificações de riscos atribuídas na UE e no PL 2338/23
CLASSIFICAÇÃO | COMUNIDADE EUROPEIA Artificial Intelligence Act | BRASIL Projeto de Lei nº 2338/2023 |
Inaceitável (proibido) | Algoritmos que realizem pontuações sociais ou classifiquem os indivíduos com base em seu comportamento, assim como os sistemas de policiamento preditivo | Sistemas de categorização social ou com capacidade de influenciar o comportamento de grupos vulneráveis. |
Risco Elevado | Serão submetidos a avaliações prévias e posteriores à comercialização os sistemas de gestão de infraestrutura, como transporte e educação, bem como os sistemas de controle de fronteiras ou assistência jurídica. | Precisam ser examinados e supervisionados antes e durante sua implementação – Sistemas automatizados de avaliação de estudantes, candidatos a emprego, solicitações de crédito ou benefícios sociais, diagnósticos médicos, risco de atividades criminais e comportamento, e veículos autônomos. |
Risco limitado | Devem seguir requisitos mínimos de transparência os programas que geram deepfakes e chatbots. | Não há menção. |
Risco mínimo | Sem exigências legais suplementares além das leis já em vigor. | Não há menção. |
Fonte: Parlamento Europeu e PL 2338/2023, Agência Senado