A implementação de sistemas de Inteligência Artificial (IA) tem gerado debates relevantes no cenário jurídico, especialmente no que tange à necessidade de regulamentação ética e legal.
Diante da crescente adoção dessas tecnologias, o Brasil busca equilibrar inovação tecnológica com a proteção de direitos fundamentais, alinhando-se a princípios constitucionais e marcos internacionais.
A implementação de uma legislação robusta visa, portanto, não apenas incentivar a inovação, mas também assegurar que os avanços tecnológicos respeitem os direitos humanos e os valores democráticos.
MARCO NORMATIVO E PRINCÍPIOS JURÍDICOS APLICÁVEIS
No âmbito jurídico nacional, a Constituição Federal estabelece fundamentos que balizam o desenvolvimento ético da IA, destacando a dignidade da pessoa humana (art. 1o, III) e a proibição de discriminação (art. 5o, caput e incisos XLI e XLII). Esses princípios constitucionais são pilares para garantir que o uso da IA respeite direitos fundamentais, como privacidade, igualdade e liberdade.
Complementando esses fundamentos, a Lei Geral de Proteção de Dados (LGPD) (Lei no 13.709/2018) impõe diretrizes específicas para o tratamento de dados pessoais em sistemas de IA. O artigo 20 da LGPD, por exemplo, assegura ao titular de dados o direito de solicitar revisões em decisões automatizadas que impactem seus interesses, evidenciando a preocupação legislativa com a transparência e a explicabilidade de algoritmos.
INICIATIVAS LEGISLATIVAS E DIRETRIZES ÉTICAS
No Congresso Nacional, projetos de lei têm avançado para criar um marco regulatório específico para IA. Destaca-se o Projeto de Lei nº 872/2021, que propõe diretrizes para o desenvolvimento e uso ético da IA, incluindo a vedação de discriminação algorítmica e a obrigação de transparência nos sistemas de alto impacto.
Outro destaque é o Projeto de Lei nº 2.338/2023, que propõe a criação de um Sistema Nacional de Governança e Regulação da IA. Esse projeto, em tramitação, visa regulamentar sistemas de alto risco e garantir que algoritmos atendam aos princípios de accountability, conforme previsto nos acordos internacionais endossados pelo Brasil, como as diretrizes da OCDE.
DESAFIOS JURÍDICOS E ÉTICOS
Entre os principais desafios enfrentados pelo ordenamento jurídico brasileiro estão:
Vieses Algorítmicos e Discriminação: Sistemas de IA têm potencial para reproduzir preconceitos históricos presentes nos dados de treinamento, ferindo o princípio da igualdade material previsto no art. 5º da Constituição.
Responsabilidade Civil: O artigo 927 do Código Civil estabelece a responsabilidade objetiva para casos em que a atividade desenvolvida implica risco para os direitos de terceiros. A aplicação dessa regra a sistemas de IA suscita debates sobre como determinar responsabilidades em casos de danos causados por decisões automatizadas.
Privacidade de Dados: A LGPD, em seu artigo 6º, incisos VI e VIII, enfatiza a necessidade de transparência e prevenção em relação ao tratamento de dados pessoais, o que inclui a aplicação em sistemas de IA.
ALINHAMENTO INTERNACIONAL
A UNESCO, em sua “Recomendação sobre a Ética da Inteligência Artificial”, adotada em 2021, destacou a necessidade de regulação baseada em princípios de justiça, privacidade e transparência. O Brasil, signatário do documento, tem buscado incorporar essas diretrizes em suas políticas públicas.
CONCLUSÃO E PERSPECTIVAS
O avanço da Inteligência Artificial exige do ordenamento jurídico brasileiro uma abordagem proativa e cuidadosa. O respeito aos princípios constitucionais e às normas infraconstitucionais, como a LGPD, deve ser o norte para assegurar que o desenvolvimento da IA ocorra de forma ética, protegendo direitos fundamentais e promovendo o bem-estar social.
A regulamentação emergente no Brasil demonstra esforços consistentes em criar um ambiente que favoreça a inovação, sem descuidar da proteção ao indivíduo e da responsabilidade jurídica dos agentes envolvidos.
Aline Marjorie Melo e
Larissa Maria Nascimento Ferreira.