O Projeto de Lei 2.338/23, que regula a inteligência artificial no Brasil, passará por modificações significativas no Senado. A nova versão visa flexibilizar as salvaguardas contra os riscos da IA, propondo mudanças que podem afetar a proteção dos cidadãos. Embora algumas alterações tenham apoio dos ministérios da Casa Civil, Fazenda e Desenvolvimento, também refletem a pressão das grandes empresas. Essas empresas argumentam que o marco atual limita a inovação tecnológica, prejudicando o avanço no setor.
Alterações no Projeto de Lei 2.338/23
As modificações propostas pelo senador Eduardo Gomes (PL-TO) no PL 2.338/23 estão gerando controvérsias entre diferentes setores. O novo texto visa limitar as obrigações e penalidades previstas, restringindo-as a sistemas de IA classificados como de “alto risco”. Além disso, exclui da categoria de alto risco os sistemas automatizados usados por plataformas de redes sociais, como os de moderação e recomendação de conteúdo. Essas alterações podem enfraquecer a proteção dos direitos dos usuários e comprometer a segurança no uso da IA.
Em contraste, o presidente Luiz Inácio Lula da Silva defende a criação de uma IA segura, transparente e emancipada. Nesse contexto, Lula destaca a importância de respeitar os direitos humanos e garantir a integridade da informação. Além disso, em discurso recente na Cúpula do G20, ele reiterou a necessidade de um sistema de governança robusto.
Esse sistema asseguraria que a IA não infrinja os direitos dos cidadãos, promovendo maior segurança e transparência. Ele tem se posicionado a favor de um marco regulatório mais rígido, que leve em consideração as preocupações com a segurança e os impactos sociais.
O impacto da flexibilização nas salvaguardas
O Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio) divulgou um relatório indicando que 35% dos sistemas de IA no Brasil podem ser classificados como de alto risco. O estudo abordou iniciativas em setores como saúde, agronegócio, educação, financeiro e jurídico, que lidam com dados sensíveis e oferecem altos riscos aos usuários. A versão anterior do PL 2.338/23 previa uma classificação de risco mais detalhada para cada sistema, com penalidades e obrigações específicas para cada nível de risco. No entanto, a nova versão propõe uma abordagem mais restritiva, limitando a regulação a um rol taxativo de sistemas de alto risco, o que pode deixar lacunas significativas na proteção contra o uso irresponsável da IA.
Essas mudanças, por conseguinte, podem representar uma perda de controle sobre o desenvolvimento de sistemas de IA mais avançados, especialmente em áreas críticas como a saúde e a educação, onde a IA já tem sido implementada para automatizar diagnósticos e decisões importantes. Além disso, a nova versão do PL levanta preocupações sobre a eficácia das políticas de regulamentação em um setor tão dinâmico e em rápida evolução.
A guerra de bastidores no Senado
A tramitação do Projeto de Lei 2.338/23 tem sido marcada por um intenso lobby de diferentes grupos. De um lado, a sociedade civil e entidades de proteção defendem uma regulamentação rigorosa para garantir a segurança dos usuários. Por outro lado, grandes empresas de tecnologia e a CNI pressionam pela flexibilização das regras, alegando que o marco regulatório, dessa forma, impede o desenvolvimento.
Essa tensão, portanto, destaca a necessidade de equilibrar segurança e inovação, sem prejudicar o crescimento tecnológico. Além disso, essas divergências refletem a disputa entre proteger os direitos individuais e, ao mesmo tempo, estimular o crescimento econômico no setor de IA.
Os pontos mais polêmicos incluem o uso de dados biométricos, armas autônomas e o controle das redes sociais. A regulação desses aspectos tem gerado discussões intensas, com preocupações sobre o impacto na privacidade e no controle governamental. O uso de IA em plataformas digitais é sensível, pois sistemas de moderação influenciam as informações disseminadas. Isso afeta diretamente a liberdade de expressão e compromete a integridade da informação.
O futuro da inteligência artificial no Brasil
A nova versão do Projeto de Lei 2.338/23 levanta sérias questões sobre o futuro da inteligência artificial no Brasil. Em um setor dinâmico, onde a tecnologia evolui rapidamente, é essencial que a legislação acompanhe as mudanças constantemente. Embora as alterações propostas visem simplificar a regulação, elas podem criar um ambiente permissivo para o uso irresponsável. Isso é especialmente preocupante em áreas sensíveis, como saúde e setor financeiro, que demandam cuidados redobrados.
Por outro lado, grandes empresas de tecnologia afirmam que regras rígidas podem prejudicar a competitividade do Brasil no mercado global. A falta de clareza nas regulamentações e a incerteza jurídica podem afastar investidores, impactando o crescimento econômico. Para ser eficaz, a regulamentação deve equilibrar segurança e inovação, tornando o Brasil líder no desenvolvimento ético da IA. Esse equilíbrio promove inovação sem comprometer os direitos dos cidadãos, garantindo um futuro tecnológico sustentável.
Conclusão
O Projeto de Lei 2.338/23 e suas recentes alterações refletem o impasse entre inovação tecnológica e proteção dos direitos dos cidadãos. Além disso, as mudanças propostas pelo governo, juntamente com as divergências com a sociedade civil e o setor de tecnologia, indicam que o futuro da regulamentação de IA no Brasil está longe de ser definido. Nesse contexto, as implicações desse debate serão decisivas para o desenvolvimento responsável da inteligência artificial no país, equilibrando, assim, segurança e inovação.
A tramitação do PL 2.338/23 nos próximos meses será fundamental para determinar como a IA será regulamentada no Brasil, e como as empresas e a sociedade poderão conviver com esses sistemas de forma segura e ética.