Algoritmos fazem parte de nossas vidas – ainda que não percebamos – e também das rotinas dos governos. São as regras, ou o “passo-a-passo”, com as quais os sistemas são instruídos para a tomada de decisões sobre serviços, direitos, cálculos de impostos devidos, nos mais diversos domínios das políticas públicas.
À medida que crescem as aplicações de inteligência artificial, essas decisões são tomadas automaticamente, por vezes reforçando desigualdades ou inserindo vieses discriminatórios (abordei o assunto neste outro post). Algoritmos se tornaram nossos legisladores do dia-a-dia, e isso significa que precisamos conhecê-los para compreender de que maneira as leis e políticas estão sendo realmente implementadas pelos sistemas. Precisamos de algoritmos abertos.
O governo da França tem um programa de publicação de algoritmos impulsionado pela legislação nacional e regional recente e implementado por seus órgãos públicos com apoio do Etatlab, seu laboratório de inovação e governo aberto. A França é um dos países com leis de abertura de dados mais interessantes do mundo – ao lado de países como Alemanha e, agora, Estados Unidos (O.P.E.N. Data Act). Em 2016, com a promulgação da Lei por uma República Digital, o princípio da transparência dos algoritmos dos foi instituído pela primeira vez. Depois, foi reforçado pela regulamentação local da GDPR – Lei Geral de Proteção de Dados da União Europeia e confirmado pela Corte Constitucional francesa.
O debate foi acalorado por lá, e uma decisão importante dos juízes deu a palavra final:
sem transparência dos algoritmos, nenhuma decisão administrativa que afeta a vida dos indivíduos poderá ser 100% automatizada.
Aqui no Brasil, a recém-aprovada Lei Geral de Proteção de Dados (LGPD) traz dispositivo sobre esse tema (ela deverá entrar em vigência em junho de 2020), mas não obriga sua transparência pelo poder público. Em regra que vale para o setor público e privado, diz que “o titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade”. Isso deveria significar que, ressalvado o segredo industrial ou comercial, os algoritmos podem ser solicitados ou auditados caso um indivíduo se sinta prejudicado – mas é difícil saber como acontecerá na prática.
Em sua página sobre o programa, o Etatlab justifica assim a transparência de algoritmos pelo poder público: diferentemente do que acontece no setor privado, os algoritmos públicos servem ao interesse público, executam o acesso a direitos e são “incontornáveis”. E os riscos de processos automatizados por algoritmos não podem ser ignorados:
- Desconfiança da sociedade frente a ferramentas consideradas “caixa-pretas” e cujas decisões são por vezes mal vistas ou rechaçadas;
- Risco de viés ou discriminação, em particular por algoritmos de aprendizado de máquinas;
- Riscos éticos associados a efeitos não previstos dos tratamentos algorítmicos.
A lista de algoritmos já publicados pela França ainda é pouco extensa – estão na fase de recensear e catalogar sua existência. O desafio é grande, mas o resultado já é interessante: estão publicados os algoritmos que definem o cálculo dos benefícios da seguridade social para as famílias de baixa renda; o cálculo da taxa de habitação; a inscrição nos estabelecimentos de ensino superior; o cálculo do imposto de renda; o modelo macroeconômico (Mésange) para avaliação de impacto de políticas econômicas de emprego, PIB etc, seguro desemprego, entre outras.
Os materiais do Etalab e a lista completa estão disponíveis no site do Etatlab:
- Guia dos Algoritmos Públicos (em francês) – Acesse aqui.
- Lista de Algoritmos Públicos já abertos pelo governo francês – Acesse aqui.
Deixe um comentário