Desde a Antiguidade, a filosofia tem sido uma ciência primordial no entendimento e na construção da história da humanidade. Na era dos dados, não poderia ser diferente. Com os desenvolvimentos em inteligência artificial (IA) ocorrendo de forma veloz e ultrapassando a barreira da produtividade, os filósofos começam a fazer parte das equipes multidisciplinares que reavaliam conceitos fundamentais da IA.  Questões religiosas, morais e éticas se tornaram tão relevantes para a tecnologia quanto a matemática e a estatística. Não por acaso, empresas como o Facebook já anunciam a contratação de filósofos para melhorar as funcionalidades de seus assistentes pessoais.

Esse tema está na ordem do dia dos pensadores sobre as tendências mundiais. Autor da trilogia Sapiens, Homo Deus e 21 lições para o século 21, o filósofo e historiador israelense Yuval Noah Harari estuda as consequências de um mundo biotecnológico futuro, em que os organismos biológicos inteligentes – os humanos – serão ultrapassados pelas suas próprias criações – as máquinas. Em novembro de 2019, em conferências no Brasil, ele alertou: “Serão criados algoritmos que entendem você melhor do que você mesmo se entende. Eles vão prever nossos sentimentos e decisões, e, portando, conseguirão manipular nossos desejos e até decidir por nós. Podemos criar o céu e o inferno com a inteligência artificial.”

Na visão de Harari, os países que não agirem agora podem perder o controle do próprio futuro, virar ‘colônias de dados’ em um novo tipo de imperialismo. Segundo ele, a pergunta mais importante que podemos fazer hoje é: como usar a tecnologia de forma inteligente e segura? Por isso, defendeu, é essencial que os governos criem regras para novas tecnologias, uma legislação que proteja seus cidadãos – do próprio governo, dos governos de outros países e das grandes empresas. E indagou: Quem é dono dos nossos dados pessoais? Do meu histórico de vida? Das minhas informações médicas?

Preocupação religiosa

O uso da inteligência artificial no futuro também é uma preocupação do Papa Francisco. Em encontro com renomados cientistas, no primeiro trimestre de 2019, no Vaticano, foram abordadas questões como “corpo e alma” e aspectos morais sobre o uso da IA. Na carta de abertura do seminário “Robótica: Humanos, Máquinas e Saúde”, o Papa mencionou o paradoxo do “progresso” e advertiu contra o desenvolvimento de técnicas, sem antes pensar nos impactos negativos que elas podem ter na sociedade.

As questões morais levantadas pelo avanço da inteligência artificial estão também no foco do Grupo Europeu de Ética na Ciência e nas Novas Tecnologias. Em 2018, o grupo lançou um relatório enfatizando “as urgentes e complexas questões morais” envolvidas na IA e defendeu a criação de um modelo coletivo e colaborativo de trabalho, de modo a definir um conjunto de valores em torno do qual a sociedade se organizaria, e o papel das novas tecnologias nesse cenário.

Nos Estados Unidos, no início de novembro, o Conselho de Inovação da Defesa, uma organização consultiva do Pentágono, publicou um conjunto de princípios éticos sobre como as agências militares devem projetar armas baseadas em IA e aplicá-las no campo de batalha. A expectativa é de que as recomendações estabeleçam um padrão para o uso responsável da IA.

Estamos, portanto, vivenciando um momento em que o pensamento filosófico tem impacto crucial no debate sobre assuntos de ordem pública e moral. Possivelmente por isso um conhecido empresário e filantropo norte-americano, Mark Cuban, presidente da HDNet, tem pregado que, num futuro próximo, um diploma de filosofia será mais valioso do que uma formação em ciência da computação ou de engenharia.

BigData Corp

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *