Inteligência artificial – Senado vota hoje, 10, PL da regulamentação

dez 10, 2024 by

A regulação da IA é uma necessidade premente para garantir direitos e evitar retrocessos. É o que alerta a Nota da Coalizão Direitos na Rede e que o Instituto Telecom, como um dos signatários, publica abaixo, na íntegra:

“A aprovação do Projeto de Lei nº 2338/23 (PL 2338/23) na Comissão Temporária sobre Inteligência Artificial (CTIA) ocorreu na quinta-feira dia 5 e deve acontecer hoje, dia 10, no Plenário do Senado Federal. Mas retrocessos e novas ameaças ao texto podem tornar a lei inócua e limitada a poucos tipos de sistemas de IA.

Diante deste cenário a Coalizão vem pontuar que o texto é o mínimo necessário e, ainda, alertar para os riscos de retrocessos, ameaças e insuficiências no texto, indicando caminhos para seu aprimoramento.

É essencial que os sistemas de inteligência artificial sejam regulados para promover uma IA responsável, que proteja direitos e mitigue riscos à sociedade e a grupos minorizados. O PL 2338/23 traz dispositivos muito importantes que nos colocam em diálogo internacional do ponto de vista regulatório e tecnológico, como o estabelecimento de uma regulação baseada em riscos (com hipóteses exemplificativas de risco excessivo e alto) e correspondentes obrigações e medidas de governança; a instituição de direitos a pessoas afetadas pela tecnologia; a garantia de compromisso de tolerância zero contra IAs que criem ou disseminem conteúdo de abuso e exploração sexual infantojuvenil; a responsabilização dos agentes da cadeia; e a criação de uma estrutura fiscalizatória.

Todavia, os avanços podem ser seriamente comprometidos diante de recuos e ameaças ao texto. Entre os retrocessos, a última versão do relator Eduardo Gomes (PL-TO) abre exceções e flexibilizações à aplicação da Lei que podem fazer com que esta se torne inócua ou extremamente limitada, podendo ser aplicada apenas a um pequeno grupo de sistemas de IA. O novo relatório, em seu art. 1°, §1°, usa redações genéricas dos sistemas que não estariam sujeitos às obrigações da Lei, reduzindo significativamente o alcance das medidas listadas no projeto de lei.

Outra involução estrutural no novo texto (art. 12) foi tornar opcionais e não mais obrigatórias as avaliações preliminares para atribuição do grau de risco antes de um sistema entrar no mercado ou ser disponibilizado como serviço. As medidas de governança de sistemas de alto risco também foram flexibilizadas, como a adoção de medidas de mitigação e prevenção de vieses discriminatórios somente quando o risco à discriminação decorrer da aplicação do sistema de IA. Medidas de governança precisam ser obrigatórias, de acordo com o grau de risco.

A versão de 28 de novembro também trouxe retrocessos significativos em relação à participação social, tanto nos processos de prestação de contas dos agentes de IA como nas avaliações de impacto (art. 25, §8º) e no próprio funcionamento do Sistema Nacional de Governança e Regulação de IA (SIA). Para garantir sistemas de IA responsáveis e protetivos de direitos, é essencial o escrutínio público dos regulados e dos reguladores, por meio de participação pública.

Um retrocesso grave também foi notado no artigo sobre proteção aos trabalhadores. Foram retirados quatro incisos que tratam de temas fundamentais. Especialmente, foram excluídas regras que garantiam a ‘supervisão humana em decisões automatizadas de punições disciplinares e dispensa’ e coibiam a ‘demissão em massa ou substituição extensiva da força de trabalho’. As mudanças acabam com mecanismos fundamentais para proteger trabalhadores dos efeitos negativos da introdução de sistemas de IA.

Um ponto central mantido pelo relatório do Senador Eduardo Gomes, mas que vem sendo objeto de ameaças diante dos fortes questionamentos por parte de empresas de tecnologia, plataformas digitais e de associações da indústria, é a possibilidade de atualização dos sistemas de alto risco, atualmente prevista, acertadamente, em hipóteses exemplificativas (art. 14 e 15). Esta possibilidade é fundamental para que a lei não nasça desatualizada, considerando o dinamismo do setor de IA. A explosão da IA generativa em menos de dois anos é apenas um dos exemplos de como este setor evolui rapidamente. Se a lista de sistemas de alto risco for taxativa e restrita àquela elencada hoje no texto, a sociedade brasileira ficará refém de riscos postos por quaisquer novos sistemas de IA não contemplados ali. A legislação precisa ser viva.

Outra ameaça diz respeito às regras sobre sistemas de IA utilizados por plataformas digitais para curadoria, difusão, recomendação e distribuição de conteúdos. Atualmente, estes modelos algorítmicos estão classificados como de alto risco, justamente pelo reconhecido impacto que podem ter sobre o comportamento humano, sobre o debate público e para a democracia, o que é importante para que as plataformas sejam obrigadas a adotar medidas de governança mais rígidas, especialmente ligadas à transparência e mitigação de riscos de violação de direitos. O inciso XIII do art. 14 precisa ser mantido.

Na mira do lobby empresarial estão também as regras para assegurar a proteção e compensação de titulares de direitos autorais cujos conteúdos são utilizados no treinamento de sistemas de IA. É fundamental manter os artigos que tratam dos conteúdos protegidos por direitos autorais e conexos, garantindo que os titulares desses direitos tenham conhecimento dos usos de suas obras para o treinamento de sistemas de inteligência artificial, por meio da transparência dos conteúdos utilizados, e também possam restringir este uso e tenham direito à expressa remuneração adequada por eventuais usos de suas obras.

Ainda, há uma vontade de flexibilização do compromisso irrestrito contra IAs que facilitem a circulação e produção de material de abuso e exploração sexual de crianças e adolescentes, atualmente consideradas como de risco excessivo (art. 13, inciso IV), buscando retroceder no texto e proibir, apenas, as ferramentas criadas com este propósito. A alteração significaria grande retrocesso, pois quaisquer ferramentas de geração de imagens por IA, para estarem disponíveis no mercado, devem contar com salvaguardas para impedir a produção de material abusivo por quaisquer usuários”.

Instituto Telecom, Terça-feira, 10 de dezembro de 2024

Artigos relacionados

Tags

Compartilhe

Comente

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *