Quando falamos sobre os riscos da inteligência artificial, automaticamente pensamos em robôs dominando o mundo e subjugando a raça humana, no exemplo mais clássico de um cenário no qual a criatura supera o criador. Apesar de esse ser o enredo mais explorado pelas superproduções de ficção científica que vislumbram o futuro, os riscos reais da IA são bem mais sutis, porém tão perigosos quanto.

Apesar de suas inegáveis vantagens e do que ela representa em avanços tecnológicos, no post de hoje nós vamos falar sobre como a inteligência artificial pode impactar as nossas vidas de forma negativa, ao permitirmos que máquinas tomem decisões extremamente importantes e delicadas baseadas em algoritmos. Se até o momento você desconhece esse lado obscuro da tecnologia, acompanhe o post de hoje que nós explicamos o porquê de ser preciso tomar tanto cuidado com a IA no presente.

Inteligência Artificial Contaminada

A dualidade criador versus criatura que citamos acima é bastante pertinente quando falamos dos riscos da inteligência artificial. Se na ficção os maiores problemas acontecem quando os robôs desenvolvem autonomia o suficiente para não necessitarem mais dos seus criadores, atingindo a perfeição intelectual e funcional, o problema no mundo real é exatamente o contrário e ocorre quando a IA não consegue superar os defeitos humanos.

Segundo John Giannandrea, chefe do departamento de Inteligência Artificial do Google, a maior preocupação acerca desse tema atualmente é o perigo que pode estar dentro dos algoritmos de aprendizagem de máquina utilizados para a tomada de decisões. Enquanto as máquinas são, teoricamente, neutras e livres de pré-julgamentos, o mesmo não pode ser dito dos algoritmos desenvolvidos e implantados por pessoas de carne e osso, de forma que alguns preconceitos típicos do universo analógico podem contaminar sistemas de inteligência artificial.

Na prática, isso funciona da seguinte maneira: os programas de IA são compostos de algoritmos, um conjunto de regras que ajudam a identificar padrões para que possam tomar decisões com pouca ou nenhuma intervenção humana. Contudo, os algoritmos precisam ser alimentados com dados para aprender essas regras e, às vezes, os preconceitos humanos podem se infiltrar neles.

Em um exemplo de IA contaminada, juízes de alguns estados dos EUA estavam utilizando uma tecnologia chamada COMPAS para ajudar a decidir sobre a liberdade condicional de alguns presos e outras condições de condenação. No entanto, o COMPAS usa aprendizado de máquina e dados históricos para prever a probabilidade de um criminoso violento reincidir e, infelizmente, vem realizando essa predição de maneira incorreta, apontando que presos negros estão mais propensos a reincidir do que detentos de outras etnias.

Como Evitar Que o Preconceito Faça Parte dos Sistemas de IA?

A resposta é diversidade de dados, tanto em seu conteúdo quanto na sua origem. De acordo com Antony Cook, conselheiro geral associado da Microsoft para Assuntos Corporativos, Externos e Jurídicos da Ásia, uma solução seria promover o acesso a grandes e diversos conjuntos de dados, ajudando a treinar os algoritmos para manter o princípio da justiça e da imparcialidade.

Outro ponto importante é a abordagem multidisciplinar. Uma vez que as decisões humanas são baseadas em contextos sociais, representantes de áreas variadas devem ser envolvidos em debates sobre o que constrói uma inteligência artificial mais inclusiva, de forma que profissionais de campos de estudo humanistas trabalhem em conjunto com tecnólogos nesse desenvolvimento. Um assunto de interesse geral como esse não pode estar restrito a programadores e deve ser travado entre empresas de tecnologia, governos e sociedade civil.

Além disso, é importante que certas decisões não sejam deixadas para os algoritmos, devendo permanecer nas mãos de humanos. Isso vale especialmente quando falamos de deliberações que podem prejudicar diretamente a vida ou a liberdade de uma pessoa, como no caso de julgamentos, contratações ou avaliações durante conflitos militares.

 

Pronto, agora que você já sabe um pouco mais sobre os perigos de deixar decisões importantes a cargo de algoritmos de inteligência artificial, é possível entender o porquê é necessário tomar tanto cuidado com uma tecnologia que promete substituir diversas funções humanas. E se você quiser se aprofundar mais no assunto, que tal dar uma lida nesse post sobre Viés na Análise de Dados?

BigData Corp

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *