Dora Kaufman, professora da PUC-SP, debate sobre os impactos sociais e éticos da Inteligência Artificial

06 de Agosto de 2021

(Foto: Arthur Nobre)

Apesar de ser uma palavra cada vez mais popular e ser tema de discussões cada vez mais recorrentes, a Inteligência Artificial (IA) ainda carrega muitos equívocos em sua compreensão. Há quem acredite se tratar de um tipo de inteligência que superará a humana ou que seu uso ainda esteja associado a um futuro distópico. Porém, a Inteligência Artificial nada mais é do que uma área da ciência da computação dedicada ao estudo de técnicas para a simulação de diferentes aspectos próprios da inteligência humana e animal em computadores. 

Longe de ser algo futurístico ou restrito a grandes empresas de tecnologia, a Inteligência Artificial faz parte de diversos aspectos do nosso cotidiano, como as redes sociais, por exemplo. Dessa forma, à medida que esta tecnologia ganha espaço em nossas vidas, garantir que haja ética em seu uso e desenvolvimento passa a representar uma questão relevante de ser discutida. 

Por isso, nesta semana o Aprix Journal entrevistou Dora Kaufman,  professora do Programa de Pós-Graduação de Tecnologias da Inteligência e Design Digital (TIDD/PUC-SP) e pesquisadora do Centro de Pesquisa em Redes Digitais Atopos da Escola de Comunicações e Artes da (ECA/USP). Referência na pesquisa sobre os impactos sociais da Inteligência Artificial, Kaufman desmistifica algumas compreensões sobre a tecnologia, explica os problemas éticos relacionados às aplicações dos algoritmos de IA e menciona algumas tentativas de regulamentação do desenvolvimento e uso da técnica. Confira!

 

Aprix Journal - O que é inteligência artificial? E o que não é inteligência artificial? 

Dora Kaufman - Existem inúmeras definições de inteligência artificial. Gosto de definir a IA como “a ciência e a engenharia de criar máquinas que tenham funções exercidas pelo cérebro dos animais”. Em geral, a ideia de IA no imaginário coletivo está associada aos cenários distópicos dos filmes de ficção científica, quando na prática a técnica que permeia a maior parte das aplicações atuais de IA é “apenas” um modelo estatístico de probabilidade,  presente no nosso cotidiano: quase todas as plataformas e aplicativos que usamos diariamente - Facebook, Instagram, YouTube, Google, Waze, Uber, Netflix, entre outros – têm seus modelos de negócio viabilizados pelas tecnologias de inteligência artificial.  Ou seja,  a IA hoje não tem nenhuma semelhança com o que mostram os filmes de ficção científica, e não há nenhum indício científico de que esses cenários serão concretizados no futuro. No momento, é pura especulação restrita ao âmbito da ficção.

 

Aprix Journal - Como se deram os primeiros estudos de Inteligência Artificial? 

Dora Kaufman - O campo de estudo da Inteligência Artificial foi criado em 1956. Em seus primórdios, o desafio era resolver tarefas executadas pelos humanos intuitivamente e com relativo grau de subjetividade, como reconhecer palavras faladas ou rostos em imagens, pela dificuldade de descrevê-las formalmente na programação computacional (em geral, o que é mais fácil para o ser humano realizar, é mais difícil para a máquina; e o que é mais fácil para a máquina, é mais difícil para o ser humano). Várias tentativas envolvendo linguagens formais, apoiadas em regras de inferência lógica, não foram exitosas, indicando a necessidade dos sistemas gerarem seu próprio conhecimento extraindo padrões de dados, ou seja, “aprender" com os dados sem receber instruções explícitas. Esse processo convencionou-se denominar de "Aprendizado de Máquina” (Machine Learning, em inglês), subcampo da IA criado em 1959, que por décadas não apresentou resultados positivos. 

O que significa resultados positivos? O campo da IA ainda não tem uma teoria, o que se tem são modelos empíricos, ou seja, testados para executar determinada tarefa com resultados melhores do que as outras técnicas disponíveis. Na década de 1980, um grupo de pesquisadores do Canadian Institute for Advanced Research – Geoffrey Hinton, Yoshua Bengio e Yann LeCun – retomou o caminho das redes neurais, obtendo resultados positivos. A técnica é conhecida como “redes neurais profundas” ou, em inglês “deep learning” (aprendizado profundo). Esta técnica nada mais é do que um modelo estatístico de probabilidade que extrai padrões de grandes conjuntos de dados. A técnica é restrita, ou seja, se você treinar um algoritmo de IA para executar uma determinada tarefa e você quiser executar outra tarefa, você terá que treinar outro modelo. Seu reconhecimento se deu somente em 2012, com a maior disponibilidade de dados e maior poder computacional com as GPUs, portanto, é uma técnica muito recente.

 

Aprix Journal - Qual a relação entre a técnica de Redes Neurais Profundas e o cérebro humano? 

Dora Kaufman - A técnica das Redes Neurais Profundas foi inspirada no funcionamento do cérebro biológico. É um equívoco afirmar que ela reproduz o funcionamento do cérebro, porque o cérebro é extremamente mais complexo. A relação que esta técnica tem com o cérebro é o conceito, originado na ciência cognitiva, de conexionismo. A ideia central é de várias unidades computacionais interligadas em redes, válida tanto para os neurônios em sistemas biológicos quanto para unidades em modelos computacionais. A lógica da técnica é semelhante ao que ocorre numa consulta: o médico correlaciona os sintomas descritos pelo paciente com a “base de dados” armazenada na memória, compara com exemplos de outros pacientes (e/ou consulta casos relatados em plataformas médicas) e dá o diagnóstico, que é sempre uma probabilidade (os médicos, em geral, fazem questão de afirmar que a medicina não é uma ciência exata). Os algoritmos de IA, na busca por identificar padrões, são capazes de correlacionar grandes quantidades de dados (big data). Atualmente, essa técnica de IA é a única técnica estatística disponível para lidar com o big data. A tendência, então, é que esses sistemas gerem previsões mais assertivas, porque são previsões baseadas em imensos conjuntos de informações/dados.

 

Aprix Journal - De que forma a inteligência artificial se diferencia de outras tecnologias? 

Dora Kaufman -  A inteligência artificial é chamada de tecnologia transversal, porque ela não é aplicada a um determinado setor de atividade. É também uma tecnologia de propósito geral, isto é, ela não tem um propósito específico de aplicação. Um exemplo são as impressoras 3D, que podem imprimir um objeto pequeno ou uma casa, mas o propósito dela é especificamente imprimir. As principais tecnologias de propósito geral da era industrial são a máquina à vapor, a eletricidade e a computação. A tendência é a inteligência artificial ser a tecnologia de propósito geral do século XXI, na medida em se torne a tecnologia base dos modelos de negócio predominantes.

 

Aprix Journal - E no caso do Brasil, como estamos em relação à pesquisa, mercado e outras aplicações de IA? 

Dora Kaufman - No Brasil, em geral, as empresas encontram-se na fase inicial do processo de Transformação Digital, ou seja, digitalizando/automatizando as operações de back-office e o relacionamento com os clientes/consumidores. Contudo, observa-se avanço na adoção da IA em áreas do setor público (particularmente na Justiça), no agronegócio, no setor financeiro/bancário (bancos tradicionais e os novos bancos digitais), no varejo eletrônico, nas plataformas educacionais, em organizações líderes do setor de saúde, dentre outros. No setor privado, em geral, as empresas mais inovadoras têm a IA no core de seus modelos de negócio.

 

Aprix Journal - A aplicação da inteligência artificial oferece algum risco à sociedade? 

Dora Kaufman - Parte da complexidade é que, simultaneamente, a adoção da IA gera externalidades positivas e negativas, ou seja, benefícios e malefícios. A abordagem da proposta de regulamentação da IA da Comissão Europeia, por exemplo,  é baseada em risco, delimitando o desenvolvimento e o uso dos sistemas em categorias distintas de risco: os potenciais danos, por exemplo, de um erro do sistema de recomendação de uma plataforma de streaming (música ou filme) é significativamente distinto de um erro de um sistema de recomendação de um procedimento médico; no primeiro caso, o máximo que pode acontecer é o assinante não gostar do filme, no segundo pode implicar em sérios danos ao paciente. A técnica de redes neurais profundas, sendo um modelo estatístico de probabilidade, já tem uma variável de incerteza intrínseca, que se soma aos problemas de viés, transparência, privacidade. O desafio é maximizar os enormes benefícios da IA e mitigar os potenciais danos.

 

Aprix Journal - E quais são os problemas éticos relacionados às aplicações dos algoritmos de inteligência artificial? 

Dora Kaufman - Existem várias questões éticas envolvidas no desenvolvimento e no uso de tecnologias de IA, dentre elas as já mencionadas  viés,  transparência e privacidade. O viés (bias em inglês), basicamente, pode ser originado nas decisões dos desenvolvedores dos sistemas e/ou na base de dados de treinamento dos algoritmos de IA (que, por sua vez, têm distintas causas); existem procedimentos para mitigar o efeito do viés, mas não eliminá-lo. A transparência tem relação com a natureza da técnica de redes neurais profundas, o fato de que se desconhece como os resultados/previsões foram gerados pelo sistema, o chamado “black box” ou não-explicabilidade. A ameaça à privacidade manifesta-se em vários momentos e de várias formas, a começar pelo fato de que a técnica é baseada em extrair informações úteis e/ou identificar padrões nos dados, parte deles são dados pessoais gerados na interação dos usuários nas plataformas e/ou dispositivos digitais. Os impactos sociais, como a substituição do trabalhador humano por sistemas/máquinas inteligentes, também podem ser considerados questões éticas (o que deve ser privilegiado, por exemplo, os resultados financeiros das empresas pela redução de custo e aumento da eficiência, ou a garantia de emprego/bem estar aos indivíduos?).

 

Aprix Journal - Existe uma saída para resolver os problemas éticos da inteligência artificial? Existe algum regulamento, lei, código de ética para o trabalho com algoritmos e inteligência artificial?

Dora Kaufman - Podemos considerar três conjuntos de iniciativas. O primeiro refere-se aos princípios gerais de IA, estabelecidos originalmente na Conference on Beneficial AI, organizada pelo Instituto Future of Life em 2017,  diretrizes éticas para garantir o desenvolvimento de tecnologias de IA benéficas à sociedade, “Asilomar Principles”, agregados em 23 princípios, subdivididos em três categorias - pesquisa, ética e valores, e questões de longo prazo. Esses princípios gerais têm sido replicados mundo afora por Institutos, órgãos multilaterais e de governo, ONGs. Esses princípios gerais são de aplicabilidade restrita, ou seja, não traduzíveis em boas práticas para nortear o ecossistema de IA. Alguns deles, como justiça e dignidade, não são universais e, mais desafiador, desconhece-se como representá-los em termos matemáticos, pré-condição para incorporar em modelos estatísticos de probabilidade (redes neurais profundas/deep learning).

O segundo conjunto de iniciativas refere-se aos planos estratégicos de IA, lançados por cerca de 30 países, com destaque para as Estratégias de IA dos EUA, Canadá, Reino Unido, China, Índia, França, Alemanha, Coréia. O terceiro conjunto de iniciativas refere-se às propostas de regulamentação. Em 21 de abril último, a Comissão Europeia divulgou uma proposta de regulamentação da IA, fruto de um processo relativamente longo de debate na Comunidade Europeia envolvendo especialistas da academia, do mercado e do governo, que resultou em relatórios densos submetidos à apreciação pública. Com todo esse antecedente, mesmo assim a proposta é vaga, confusa, em certos aspectos idealista, e a expectativa é que seja debatida no decurso dos próximos 2 à 4 anos antes de se transformar, se for o caso, efetivamente em lei. 

No Brasil, em 9 de abril de 2021, o Ministério da Ciência, Tecnologia e Inovações (MCTI) publicou no Diário Oficial da União a “Estratégia Brasileira de Inteligência Artificial” (EBIA) com o propósito de “nortear o Governo Federal no desenvolvimento das ações, em suas várias vertentes, que estimulem a pesquisa, inovação e desenvolvimento de soluções em Inteligência Artificial, bem como, seu uso consciente, ético e em prol de um futuro melhor”. Quanto à regulamentação, existe um projeto de lei para regulamentar o desenvolvimento e uso da IA tramitando no Senado e outro na Câmara dos Deputados. Tanto a “Estratégia de IA” quanto os projetos de lei não atendem a complexidade do tema.

 

Aprix Journal - Qual o tema relacionado à IA você acha que deveria estar sendo discutido pela sociedade?

Dora Kaufman - Mitigar os problemas éticos já mencionados é crítico para proteger os indivíduos e as instituições de potenciais danos. Não é uma missão simples, dada a complexidade e a velocidade de disseminação na sociedade das tecnologias de IA. A abordagem por categoria de risco é a mais recomendada. Cabe às autoridades regulatórias identificar, e concentrar a atenção, nos desenvolvimentos e usos de IA que apresentem maior grau de risco, que tendem a ser maior na saúde, na educação, na justiça e na polícia (uso de sistemas de reconhecimento facial, por exemplo). No âmbito dos impactos sociais, no meu ponto de vista, os mais urgentes são o deslocamento do trabalho pela automação inteligente, a redução da remuneração do trabalho pela competição com as funções remanescentes, e a carência de profissionais/trabalhadores qualificados para desempenhar as novas funções.

 

 


Quer ficar por dentro das novidades do Aprix Journal? Assine nossa newsletter semanal e receba as últimas reportagens e notícias sobre combustíveis, tecnologia e precificação diretamente em seu e-mail. Ou, se preferir, receba pelo WhatsApp. Basta clicar neste link, salvar nosso número e nos enviar uma mensagem.



Compartilhe este material