Inteligência artificial

Senado aprova Marco Legal da IA: veja o que diz o texto

Texto que cria normas para o desenvolvimento, implementação e uso responsável de sistemas de IA no país segue para a Câmara

Plenário do Senado aprovou o marco regulatório da inteligência artificial (IA). Foto: Agência Senado
Plenário do Senado aprovou o marco regulatório da inteligência artificial (IA). Foto: Agência Senado

O Senado aprovou na noite desta terça-feira (10) o projeto de lei que regulamenta a inteligência artificial (IA) no Brasil. O chamado Marco Legal da IA é um substitutivo do senador Eduardo Gomes (PL-TO) que tem como base o PL 2.338/2023, de autoria do presidente da Casa, Rodrigo Pacheco (PSD-MG). A matéria segue agora para a análise da Câmara dos Deputados.

Em linhas gerais, o texto cria normas para o desenvolvimento, implementação e uso responsável de sistemas de IA no país, estabelecendo graus de risco para esses sistemas.

Antes de chegar ao Plenário do Senado, o Marco Legal da IA foi analisado por uma comissão temporária criada especificamente para analisar o tema. O relatório foi aprovado de forma consensual na comissão, com apoio tanto da base do governo, quanto da oposição.

Dois pontos, porém, geraram divergências entre os dois lados. A versão aprovada no Plenário manteve fora da lista de sistemas considerados de alto risco os algoritmos das redes sociais — decisão que atendeu a pedidos dos senadores oposicionistas Marcos Rogério (PL-RO), Izalci Lucas (PL-DF) e Mecias de Jesus (Republicanos-RR) e que provocou o lamento de alguns parlamentares governistas.

Por outro lado, o texto atendeu a uma demanda dos senadores governistas ao manter o dispositivo que prevê a proteção dos direitos dos criadores de conteúdo e obras artísticas.

Para o senador Carlos Viana (Podemos-MG), que foi o presidente da comissão temporária, o texto aprovado traz avanços para o uso da IA no Brasil, especialmente ao colocar o ser humano como o princípio “de todas as coisas”, na centralidade das decisões.

“Foi um relatório em que nós conseguimos chegar a um consenso quanto à maior parte das colocações trazidas pelos senadores e pelas senadoras. E [buscamos garantir] o respeito ao ser humano; o princípio da privacidade. A possibilidade de que uma pessoa, quando vítima de uma determinada tecnologia, ela automaticamente tenha acesso para entender de onde isso veio, como aconteceu e, principalmente, possa se defender daquilo que está sendo colocado”, destacou ele.

Quando entra em vigor?

A maioria dos dispositivos do Marco Legal da IA deverá entrará em vigor 730 dias (ou seja, dois anos) depois da publicação da lei. No entanto, as regras sobre sistemas generativos e de uso geral, sobre as aplicações proibidas de sistemas de IA e sobre os direitos de autor deverão entrar em vigor 180 dias após a publicação da lei.

Já a organização e as atribuições dos órgãos reguladores do mercado de IA, com exceção das sanções aplicáveis, terão vigência imediata. O mesmo vale para as medidas de incentivo à sustentabilidade e às pequenas empresas.

  • Será criado o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).
  • Farão parte desse sistema: a Autoridade Nacional de Proteção de Dados (ANPD), que é o órgão de coordenação do SIA, e as autoridades setoriais. Além disso, também compõem o grupo duas novas entidades criadas pela lei: o Conselho de Cooperação Regulatória de Inteligência Artificial (CRIA) e o Comitê de Especialistas e Cientistas de Inteligência Artificial (CECIA).
  • Pessoas e grupos afetado por sistema de IA, independentemente do seu grau de risco, têm direito a privacidade e à proteção de dados pessoais; não-discriminação ilícita e/ou abusiva e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos; informação prévia quanto às suas interações com sistemas de IA; direito à determinação e à participação humana.
  • Caso haja efeitos jurídicos resultantes de um sistema de IA, há o direito à explicação sobre a decisão; direito de contestar e de solicitar a revisão de decisões; direito à supervisão ou revisão humana.
  • As autoridades competentes deverão definir critérios diferenciados para sistemas de IA ofertados por microempresas, empresas de pequeno porte e startups que promovam o desenvolvimento da indústria tecnológica nacional.
  • Os sistemas de IA são classificados em dois tipos de grau de risco: Alto Risco e Risco Excessivo. Veja abaixo algumas das aplicações para essas categorias.

Alto Risco

  • Aplicação como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas, tais como controle de trânsito e redes de abastecimento de água e de eletricidade.
  • Uso de IA na educação, para formação profissional, determinação de acesso a instituições de ensino ou ou para avaliação e monitoramento de estudantes.
  • Uso de IA no mercado de trabalho, como em recrutamento de candidatos para vagas de emprego e tomada de decisões sobre promoções.
  • Na avaliação de critérios de acesso a serviços privados e públicos essenciais, como assistência social ou seguros, por exemplo. Ou, ainda, em serviços de bombeiros e assistência médica.
  • No judiciário.
  • Veículos autônomos em espaços públicos.
  • Aplicações na área da saúde para auxiliar diagnósticos e procedimentos médicos, quando houver risco relevante à integridade física e mental das pessoas.
  • Uso de IA pelas autoridades policiais, para estudo analítico de crimes, no intuito de identificar padrões e perfis comportamentais.

Risco Excessivo

O substitutivo proíbe o desenvolvimento e o uso de sistemas com determinadas características ou finalidades:

  • Com o propósito de instigar ou induzir o comportamento que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros; explorar vulnerabilidades de pessoas ou grupos com o objetivo de induzir o seu comportamento de maneira que cause danos à saúde, segurança ou direitos fundamentais; avaliar os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência.
  • Uso de IA pelo poder público, para avaliar, classificar ou ranquear as pessoas, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional.
  • Em sistemas de armas autônomas (SAA).
  • Que possibilitem a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes.
  • Em sistemas de identificação biométrica à distância, em tempo real e em espaços acessíveis ao público, com exceção das seguintes hipóteses: inquérito ou processo criminal, mediante autorização judicial prévia e motivada; busca de vítimas de crimes, de pessoas desaparecidas ou em circunstâncias que envolvam ameaça grave; flagrante delito de crimes punidos com pena privativa de liberdade superior a dois anos; recaptura de réus evadidos, cumprimento de mandados de prisão e de medidas restritivas.

Diferenças para a lei europeia

Mas, enquanto o país ainda está em fase de discussão e aprovação de seu marco regulatório, a União Europeia já está na vanguarda com o desenvolvimento do AI Act, que entrou em vigor no início do mês de agosto. O AI Act da UE estabelece uma abordagem baseada em risco, classificando as aplicações de IA em diferentes categorias, desde baixo até inaceitável, e impondo regras mais rígidas para sistemas considerados mais críticos.

Essa abordagem contrasta com a proposta brasileira para o Marco Legal da IA, que, embora também estabeleça princípios de transparência e responsabilidade, ainda precisa definir com maior clareza como essas diretrizes serão implementadas na prática. A UE também se destaca ao exigir que todas as aplicações de IA de alto risco passem por um processo de certificação antes de serem comercializadas, o que pode representar uma barreira adicional para startups que queiram atuar no mercado europeu.

Quadro comparativo das classificações de riscos atribuídas na UE e no PL 2338/23

CLASSIFICAÇÃOCOMUNIDADE EUROPEIA
Artificial Intelligence Act
BRASIL
Projeto de Lei nº 2338/2023
Inaceitável (proibido)Algoritmos que realizem pontuações sociais ou classifiquem os indivíduos com base em seu comportamento, assim como os sistemas de policiamento preditivoSistemas de categorização social ou com capacidade de influenciar o comportamento de grupos vulneráveis.
Risco ElevadoSerão submetidos a avaliações prévias e posteriores à comercialização os sistemas de gestão de infraestrutura, como transporte e educação, bem como os sistemas de controle de fronteiras ou assistência jurídica.Precisam ser examinados e supervisionados antes e durante sua implementação – Sistemas automatizados de avaliação de estudantes, candidatos a emprego, solicitações de crédito ou benefícios sociais, diagnósticos médicos, risco de atividades criminais e comportamento, e veículos autônomos.
Risco limitadoDevem seguir requisitos mínimos de transparência os programas que geram deepfakes e chatbots.Não há menção.
Risco mínimoSem exigências legais suplementares além das leis já em vigor.Não há menção.

Fonte: Parlamento Europeu e PL 2338/2023, Agência Senado