A Inteligência Artificial é uma ferramenta poderosa para facilitar tarefas humanas e gerar eficiência. No entanto, IA pode ser usada para reforçar medidas discriminatórias, como a caracterização racial, a previsão de comportamento ou mesmo a identificação da orientação sexual de uma pessoa.
Admitir a falácia da neutralidade e assumir a responsabilidade humana sobre os vieses são os primeiros passos para a mitigação de problemas éticos relacionados à IA. Mas ainda é preciso recorrer a outras áreas do conhecimento, como a filosofia e as ciências sociais. Afinal, quanto mais diversa e interdisciplinar a equipe, maior é a rede de conhecimento coletivo que ela utiliza.
Em entrevista ao Aprix Journal, professor e pesquisador do Instituto de Pesquisas Tecnológicas Adriano Leal falou sobre o desenvolvimento ético de soluções em inteligência artificial. Confira!
Aprix Journal — Primeiramente, em que consiste o desenvolvimento ético de soluções em inteligência artificial?
Adriano Leal — Inicialmente, é fundamental que sejam claros os objetivos para cada agente de inteligência artificial, quais as variáveis de entrada e as de saída. E, por incrível que possa parecer, as pessoas têm muita dificuldade em estabelecer os objetivos do agente de IA, o que pode agravar a parte mais sensível de todo o processo, que é a confecção do conjunto de treinamento e testes. Lembre-se, dentro do treinamento supervisionado, o agente de IA aprende por meio de exemplos. Se o conjunto de aprendizado e testes não corresponde à realidade em que será aplicado, todo tipo de problema ético ou de precisão pode aparecer.
Existem casos em que o conjunto de treinamento não tem exemplos o suficiente de cada categoria, levando a um problema de viés da representatividade ao desprezar a diversidade existente no problema. Essa é a verdadeira raiz dos problemas de discriminação da IA, juntamente com uma certa pressa e falta de responsabilização no caso de erros ao se criar soluções rápidas e de baixa efetividade no ambiente de produção real.
Aprix Journal — Sabemos que a IA não é neutra e carrega vieses de produções humanas. Como é possível lidar com essa situação, na perspectiva do desenvolvimento?
Adriano Leal — Definitivamente não é neutra, e não é possível criar uma sistemática que seja absolutamente isenta, pois nós, humanos, participamos de sua concepção. Ou seja, esses vieses estão na concepção do sistema. Todavia, existem medidas mitigatórias que reduzem em muito o risco de problemas. A principal é um envolvimento multidisciplinar ao se conceber a solução de IA, bem como a participação de outros stakeholders. É insensato deixar exclusivamente na mão de apenas um cientista de dados e um especialista no universo do problema. Juntos, eles chegarão a uma solução, mas ela poderá conter problemas por ser produzida com pressa e baixa diversidade intelectual.
A melhor forma de lidar com essa questão é a responsabilização e reparação integral de danos, pois dessa forma haverá claro incentivo à utilização de todos os princípios adequados para o desenvolvimento de soluções que IA. São eles: sustentação em diversidade intelectual desde sua concepção, aderência do conjunto de treinamento e testes à realidade do ambiente de aplicação e, finalmente, treinamento no uso de IA e tempo de desenvolvimento e testes apropriados para se chegar em níveis de confiabilidade adequados ao problema.
Aprix Journal — Por outro lado, há o uso da ferramenta pelas pessoas, que pode ser ético ou não. Quais são as responsabilidades das duas partes nesta questão?
Adriano Leal — Embora existam princípios éticos e projetos de lei nacionais e internacionais para definir as responsabilidades, atualmente não existe, ao meu conhecimento, uma legislação em vigor que trate disso. Atualmente, existe a discussão do Projeto de Lei sobre a IA no Senado Federal, que aparentemente se sustentará sobre os sólidos pilares da classificação de riscos às pessoas, auditabilidade, mitigação de risco sistêmicos, participação humana no ciclo da Inteligência Artificial e supervisão humana efetiva. Além disso, exigirá não discriminação, justiça, equidade, inclusão e rastreabilidade das decisões durante o ciclo de vida dos sistemas.
O mais fundamental é que se criem multas que possam ser aplicadas rápida eficientemente de forma que seja simples fiscalizar, coibir e incentivar ambas as partes a serem éticas no desenvolvimento e uso da IA. Afinal, todos sabemos que apenas um sistema eficiente de multas incentivou as pessoas a usarem cinto de segurança dentro dos veículos e a não fumar em ambientes fechados.