*Robson Ventura é cofundador e CIO da Gupy
A inteligência artificial é um tema recorrente para grande parte da população, e não há mais dúvidas de que a tecnologia é uma tendência que veio para ficar em vários âmbitos da nossa vida. Diferente de algumas tecnologias que atingiram seu pico em anos anteriores, mas depois sumiram, a IA vem se destacando pelo impacto abrangente em todos os setores da economia e da sociedade.
Segundo estudo global feito pela McKinsey em 2022, estima-se que a inteligência artificial vai gerar uma receita de 13 trilhões de dólares em todo o mundo até 2030. O dado prevê também uma expectativa de aumento de 5% no Produto Interno Bruto (PIB) da América Latina, além do crescimento de 38% no uso de aplicações com inteligência artificial na área de saúde destes países até 2027.
Apesar dos benefícios da IA, sabemos que também há riscos e desafios a serem enfrentados, como viés nos dados e impacto da centralização de poder nas mãos de poucas empresas. Neste sentido, a questão da regulamentação da tecnologia no Brasil está em fase inicial, mas já apresenta diretrizes promissoras. A proposta de lei 2338/2023, em discussão, aborda uma ampla gama de princípios éticos e requisitos para o desenvolvimento e uso da inteligência artificial, com ênfase em:
Inclusão;
Autodeterminação;
Transparência;
Responsabilidade.
Por isso, a regulamentação do seu uso é tão importante – e, enquanto ela é construída, é crucial abordarmos essas questões de forma proativa, garantindo que a inteligência artificial seja desenvolvida e utilizada de maneira responsável e ética. Embora não haja uma fórmula única para garantir a integridade e a equidade na implementação da IA, há várias diretrizes que as empresas podem seguir. Uma delas, senão a mais importante, é a transparência.
As empresas devem fornecer uma compreensão clara de como sua IA opera em seus produtos e serviços, desde a coleta e processamento de dados até a tomada de decisões. A partir da nossa experiência, na vanguarda do uso desta tecnologia no setor de RH, percebemos que isso não apenas promove a confiança entre os usuários, mas também permite uma supervisão adequada e a identificação de possíveis vieses ou falhas algorítmicas na inteligência artificial.
As empresas devem priorizar a diversidade em suas equipes de desenvolvimento de IA. Reconhecendo que diferentes perspectivas e experiências podem mitigar vieses e promover uma tecnologia mais sensível e justa, a inclusão de uma variedade de vozes é fundamental para o desenvolvimento ético da tecnologia de IA.
Outra diretriz crucial é a proteção da privacidade e segurança dos dados. As empresas devem implementar políticas e procedimentos robustos para garantir que as informações sensíveis dos usuários sejam tratadas com o devido cuidado e que os dados sejam protegidos na inteligência artificial contra acesso não autorizado ou violação.
É essencial que as empresas estabeleçam mecanismos de responsabilidade e supervisão adequados para monitorar e avaliar continuamente o impacto de sua inteligência artificial. Para nós, isso inclui a formação de comitês de ética e compliance aplicados também à IA, realização de auditorias regulares e a incorporação de mecanismos de feedback e prestação de contas.
À medida que o Brasil avança na regulamentação da inteligência artificial, é essencial fortalecer e implementar as diretrizes éticas delineadas na proposta de lei. Mas esse processo nada vale sem o comprometimento das empresas para garantir que a tecnologia seja desenvolvida e utilizada de maneira responsável, promovendo inclusão, equidade e bem-estar social.
Isso passa pela descentralização de poder e recursos no mercado de tecnologia, governança e regulação eficiente da IA, com vigilância e lisura constantes, a começar com nossa postura como profissionais no mercado: do estagiário ao CEO, todos devem estar em sintonia e integrar esses pilares como missão em suas atividades relacionada à inteligência artificial.