Marco Legal da IA avança, mas carece de normas técnicas para garantir segurança jurídica, afirmam especialistas
A Câmara dos Deputados retoma neste início de ano a discussão do Projeto de Lei 2.338/2023, conhecido como Marco Legal da Inteligência Artificial. A proposta, aprovada no fim do ano passado por uma comissão do Senado, é considerada passo relevante para criar um arcabouço regulatório no país. Entretanto, especialistas alertam que o texto, ao priorizar a proteção de direitos fundamentais, deixa em aberto pontos técnicos essenciais para a operação de sistemas de IA no mercado brasileiro.
Foco atual: responsabilidade pós-lançamento
De acordo com o advogado Felipe Monteiro, sócio do escritório Kasznar Leonardos, o PL foi desenhado como lei geral de caráter federal, inspirado no princípio da dignidade da pessoa humana e na necessidade de coibir práticas como desinformação e discriminação algorítmica. Nesse formato, a proposta se concentra na governança e na responsabilização civil depois que a tecnologia já está disponível ao consumidor.
“O projeto pergunta ao fornecedor de IA como ele pretende gerenciar riscos e danos após o produto chegar ao mercado”, explica Monteiro. Para o jurista, a lógica difere “radicalmente” da utilizada pela União Europeia no AI Act, que impõe barreiras técnicas e certificação ainda nas fases de desenvolvimento, antes da oferta comercial.
Brasil x Europa: duas filosofias regulatórias
A comparação entre os modelos brasileiro e europeu evidencia abordagens opostas. O AI Act classifica sistemas conforme seu nível de risco, define requisitos técnicos proporcionais — como transparência de dados, segurança cibernética e registro de incidentes — e institui fiscalização desde as primeiras etapas de criação. Já no Brasil, decisões sobre critérios de risco, padrões de segurança ou mecanismos de auditoria foram transferidas para regulamentações futuras.
Para Monteiro, essa lacuna amplia a incerteza jurídica. Sem parâmetros objetivos, empresas e investidores podem encontrar dificuldade para avaliar custos de conformidade, o que afeta diretamente a competitividade e o ritmo de inovação. “A legislação europeia diz: ‘para entrar em campo, é preciso estar certificado’. No Brasil, está claro que haverá responsabilização, mas não estão definidos os requisitos técnicos para evitar o dano”, resume.
Regulamentação setorial é considerada indispensável
O especialista ressalta que, a exemplo do que ocorreu com a Lei Geral de Proteção de Dados (LGPD), será necessária uma segunda camada normativa. Assim como a Autoridade Nacional de Proteção de Dados detalhou pontos da LGPD, agências reguladoras deverão emitir normas específicas para cada segmento que utiliza IA.
“Não se pode aplicar a mesma métrica a um algoritmo que apoia diagnósticos médicos e a um mecanismo de recomendação de ofertas em plataformas de e-commerce”, diz Monteiro. Na saúde, por exemplo, sistemas de IA lidam com dados sensíveis e risco de vida, exigindo controles mais rígidos que os necessários no varejo ou no setor financeiro. Esse detalhamento técnico, segundo ele, só virá em regulamentações complementares.
Mercado recorre à autorregulação enquanto espera definições
Com o vácuo regulatório, companhias multinacionais têm fechado acordos privados para mitigar riscos. O recente contrato entre a Disney e a OpenAI, que estabelece condições para uso de conteúdo protegido por direitos autorais, é citado como exemplo de autorregulamentação focada em governança e royalties.
No Brasil, empresas começam a adotar práticas internas de governança em inteligência artificial alinhadas às diretrizes gerais presentes no PL. A estratégia, segundo Monteiro, antecipa obrigações futuras e reduz exposição a litígios, independentemente de eventuais ajustes no texto final que será votado pela Câmara.
Segurança jurídica depende de normas técnicas claras
Para o setor produtivo, a ausência de critérios objetivos pode limitar investimentos. Entidades empresariais defendem que o Congresso avance rapidamente na definição de parâmetros ou, ao menos, garanta um calendário para que agências especializadas publiquem regulamentações logo após a sanção presidencial.
Sem esse roteiro, há receio de que a fiscalização fique comprometida. Órgãos de controle não teriam base técnica para averiguar se um sistema de IA cumpre boas práticas, e as empresas poderiam enfrentar autuações contraditórias, variando conforme o entendimento de cada fiscal ou juiz.
Próximos passos no Legislativo
O relator do PL na Câmara ainda não apresentou parecer. Parlamentares ligados à Frente Digital defendem audiências públicas adicionais para ouvir academia, startups e associações de consumidores. Caso alterações sejam aprovadas, o texto voltará ao Senado para análise final. A expectativa é que o Marco Legal da IA seja votado ainda neste semestre, mas a data depende da agenda legislativa e de negociações entre os líderes partidários.
Enquanto o cronograma parlamentar segue indefinido, especialistas recomendam que organizações mapeiem desde já seus sistemas de inteligência artificial, implementem políticas de transparência, criem comitês de ética e mantenham documentação sobre fontes de dados, processos de treinamento e mecanismos de mitigação de viés. Essas medidas, ressaltam, tendem a se tornar exigência básica em qualquer regulamentação futura.
O Projeto de Lei 2.338/2023 pode representar avanço na proteção de direitos essenciais, mas sua efetividade, segundo os analistas, será medida pela rapidez e qualidade das normas técnicas que deverão complementar a lei logo após a aprovação.



Publicar comentário