A primeira vez que muitas pessoas ouviram falar o termo Inteligência Artificial foi no começo dos anos 2000, a partir do longa homônimo dirigido por Steven Spielberg, que trazia Haley Joel Osment (o menininho do Sexto Sentido) como protagonista. O filme, uma ficção científica com apelo dramático, conta a história de um casal que adquire um robô-criança extremamente verossímil para acalentar o coração sofrido da mãe, que tinha o filho internado sem previsão de melhora.

O robô fazia parte de um modelo desenvolvido para ter sentimentos, mais precisamente a capacidade de experimentar o amor incondicional, e ao ser inserido no contexto doméstico aprende rapidamente a dinâmica da família, preenchendo o espaço deixado pela ausência do filho natural. Contrariando todas as probabilidades, o filho do casal se recupera e não reage bem à presença do novo “irmão”, que acaba por ser descartado e abandonado à própria sorte.

Relembramos esse marco do cinema para frisar que inteligência artificial e dilemas éticos andam juntos, e esse é o tema que vamos abordar hoje. A história de uma criança sendo abandonada por sua família adotiva já é bastante ruim, mas saiba que a realidade tem superado a ficção e atingido níveis tão ou mais sombrios. Se você está por fora dos avanços questionáveis que estão levantando discussões acaloradas no campo da inteligência artificial, fica de olho no post de hoje!

Reconhecimento facial e drones como armas de guerra

Se você tem um perfil no Facebook, provavelmente já está acostumado com a tecnologia de reconhecimento facial, que marca seus amigos nas fotos automaticamente, sem que você precise indicar quem é quem. Agora, saiba que essa mesma tecnologia está sendo utilizada por drones militares, operados à distância por membros das forças armadas, que funcionam não só para reconhecer indivíduos, assim como para matar os considerados culpados. E bem, como você provavelmente já deve ter percebido no Facebook, o reconhecimento facial também é passível de erro, mesmo no caso da rede social, que conta com um enorme banco de dados e em constante crescimento.

Aliás, é muito pertinente que pensemos sobre o impacto da coleta de dados, inclusive imagens, no desenvolvimento de tecnologias cada vez mais invasivas. Com os recentes escândalos acerca da privacidade e da comercialização indevida de bancos de dados, é difícil não pensar a quem tem servido toda essa “facilidade” de comercialização, e mais difícil ainda ao reconhecermos que não são somente as empresas privadas que se beneficiam da falta de uma regulamentação mais rígida.

O recurso que no Facebook parece inofensivo já contribuiu para, oficialmente, centenas de vítimas letais. Como se esse cenário não fosse assustador o suficiente, o governo americano está desenvolvendo novos modelos de drones, estes totalmente autônomos, que não precisarão mais de um operador para acompanhar as imagens da base militar e apertar um botão para de fato atacar o alvo identificado.

Reações da comunidade científica

Em 2015, Buenos Aires foi o palco da Conferência Internacional de Inteligência Artificial, na qual personalidades como o físico Stephen Hawking e Steve Wosniak, cofundador da Apple, se uniram a mais de mil cientistas e especialistas para assinar uma carta aberta contra o desenvolvimento de robôs militares autônomos. Em 2017, em nova edição da mesma Conferência, na Austrália, outra carta foi assinada por 116 especialistas em inteligência artificial e robótica, reivindicando que a Organização das Nações Unidas proíba o uso de armas autônomas.

Em um caso mais recente, a gigante Google divulgou estar trabalhando em parceria com o Departamento de Defesa dos Estados Unidos em um projeto que ajuda na identificação de objetos captados pro drones militares. Usando recursos de AI e machine learning, a empresa está desenvolvendo ferramentas que automatizam o processamento de dados no formato de imagens, podendo inclusive reconhecer veículos e suas placas. De acordo com fontes internas da empresa, funcionários ficaram sabendo da novidade através de um e-mail disparado para os colaboradores e não gostaram da notícia, o que culminou em um debate interno sobre ética e tecnologia.

 

É verdade que o julgamento humano é falho e já causou muitas injustiças ao longo da história, e esse é o principal discursos dos apoiadores incondicionais do uso de inteligência artificial no contexto militar. No entanto, a infalibilidade das tecnologias baseadas em dados é um mito, como já falamos inúmeras vezes por aqui. A grande diferença é que quando um ser humano erra, existem aparatos legais e morais sob os quais ele pode ser julgado e punido. E no caso de uma máquina, quem deve ser responsabilizado?

BigData Corp

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *