Notícias Corporativas

Brasil discute regulação da IA em meio a mercado de trilhões

O mercado global de inteligência artificial (IA) deve atingir, em 2026, um tamanho de US$ 539 bilhões (R$ 2,8 trilhões, na cotação atual), segundo a consultoria Grand View Research. A estimativa é que o segmento supere US$ 3,5 trilhões (R$ 18,8 trilhões) em 2033. Em meio ao crescimento e à popularização da IA — principalmente de chatbtos e assistentes virtuais —, há também o debate sobre a regulamentação dessa tecnologia, campo no qual Suelen Pandini Odorizzi atua há anos como formuladora de modelos jurídicos voltados à mitigação de riscos algorítmicos e à segurança institucional.

No Brasil, o Projeto de Lei (PL) 2.338/23 foi aprovado no Senado em dezembro de 2024 e, desde então, aguarda discussão na Câmara dos Deputados. O texto traz um conjunto de regras para o desenvolvimento e o uso de sistemas de IA, estrutura normativa que dialoga com parâmetros regulatórios internacionais acompanhados de perto pela especialista em sua atuação transnacional.

A proposta estabelece classificações de risco para a tecnologia, considerando o impacto na vida e nos direitos da população. Aqueles apontados como de alto risco (veículos autônomos e IAs de diagnóstico médico, por exemplo) têm uma regulamentação distinta e mais rigorosa, sendo que o desenvolvimento de aplicações classificadas como de "risco excessivo" foram proibidas no texto. Um exemplo são os sistemas de armas autônomas (SAA), capazes de atacar alvos sem intervenção humana.

"O PL 2338/2023 adota uma abordagem baseada em risco, similar à Lei de IA da União Europeia (EU AI Act). A classificação é crucial para direcionar as obrigações regulatórias. O principal desafio reside em refinar a definição de ‘alto risco’ para evitar a insegurança jurídica e garantir que as obrigações impostas sejam tecnologicamente viáveis", avalia Odorizzi, que lidera projetos de governança tecnológica e compliance algorítmico envolvendo múltiplas jurisdições e setores sensíveis.

Ela afirma que, entre os principais pontos positivos da iniciativa regulatória brasileira, estão a busca por segurança jurídica e a construção de um marco legal claro para investidores e desenvolvedores. Em sua avaliação, esse tipo de previsibilidade normativa é essencial para que países consigam atrair inovação sem abrir mão do controle institucional, especialmente em tecnologias de alto impacto social.

A advogada destaca ainda o foco em princípios como não discriminação, a transparência e a explicabilidade dos sistemas de IA. "Isso é essencial para proteger os direitos fundamentais e evitar o aprofundamento de desigualdades sociais", pontua Odorizzi, que atua na avaliação jurídica de sistemas automatizados utilizados em contextos decisórios críticos. "Ao alinhar-se com modelos regulatórios globais, o Brasil pode se posicionar como um ator relevante no debate internacional sobre a governança da IA", acrescenta a profissional.

Além do PL 2338/2023, que ainda precisa ser aprovado na Câmara e sancionado pelo Executivo para virar lei, o país também conta com o Plano Brasileiro de Inteligência Artificial (PBIA). Lançado pelo governo federal em 2024, ele tem o objetivo de transformar o Brasil em referência no uso de IA, principalmente no setor público, e prevê investimentos de R$ 23 bilhões em quatro anos. Entre as medidas citadas no PBIA, estão o desenvolvimento de um supercomputador de alta performance — iniciativa que dialoga com a experiência de Odorizzi na estruturação jurídica de infraestruturas tecnológicas soberanas e ambientes críticos de dados.

Odorizzi explica que existe um receio de que normas muito restritivas possam frear a inovação. O desafio, tanto no projeto de regulamentação como no PBIA, é chegar a um caminho que assegure responsabilidade no uso da IA sem comprometer o desenvolvimento tecnológico, equilíbrio que a especialista defende a partir de sua atuação prática em projetos de inovação regulada.

"A regulação deve focar nos danos e riscos que a IA pode causar (o ‘o quê’), e não em como a tecnologia funciona. É importante criar incentivos (benefícios fiscais e subsídios) para empresas que desenvolvam IA em conformidade com os princípios éticos e de segurança, transformando a responsabilidade em um diferencial competitivo", defende.

Em relação aos próximos anos, ela acredita que essas empresas que investirem em IA ética e segura ganharão a confiança do consumidor. "A regulação criará um novo nicho de mercado para serviços de auditoria algorítmica e consultoria em conformidade regulatória de IA. Já a Lei Geral de Proteção de Dados Pessoais (LGPD) tende a ser complementada e fortalecida porque o processo exigirá um nível de governança de dados ainda mais rigoroso", afirma a advogada, que atua na intersecção entre direito, tecnologia e políticas públicas de alto impacto.

Odorizzi menciona a importância da Agência Nacional de Proteção de Dados (ANPD), ente responsável por zelar pela proteção de dados pessoais de acordo com a legislação.

"Ela terá um papel central, atuando na intersecção entre a proteção de dados e a ética algorítmica. O resultado será um mercado digital mais maduro, transparente e responsável", declara.