Neste segundo artigo da série Desenvolvendo o Pensamento com Dados, nós vamos falar sobre como ignorar uma premissa básica pode fazer com que os cientistas de dados e demais profissionais que lidam com o universo de Big Data tenham muito mais trabalho do que deveriam, desperdiçando tempo e energia.

Você sabia que, estatisticamente falando, ao analisar um conjunto de dados e chegar a duas possíveis explicações para qualquer correlação entre eles, a lógica mais simples é quase sempre a correta? Por mais que essa seja uma regra simples, ela é comumente desprezada e sua negligência gera um impacto direto sobre o resultado dos dados analisados, comprometendo a sua eficiência.

Se você ainda não entendeu muito bem como isso funciona, não se preocupe e fica de olho no post de hoje que nós explicamos tudo.

Simplicidade x Complexidade

O objetivo fundamental ao lidarmos com uma imensa quantidade de dados é, a partir da sua análise, extrair informações valiosas que respondam perguntas e/ou gerem vantagem competitiva para as empresas. Nós também já falamos aqui que saber formular as perguntas corretas é muito mais importante para o processo de análise de dados do que as respostas em si.

Um dos princípios básicos para a extração dessas informações é encontrar padrões e conexões entre os dados disponíveis, para então segmentá-los em grupos e interpretar suas correlações. No entanto, ao analisarmos um grupo de dados abundante enquanto buscamos soluções para problemas complexos, devemos presumir que os modelos de análise sejam igualmente complexos, certo? Errado.

Estudos nas áreas de probabilidade e estatística apontam que, apesar da complexidade dos dados analisados e das questões que eles pretendem esclarecer, submetê-los à uma análise através de modelos mais simples costuma proporcionar resultados mais precisos e com maior índice de aproveitamento do que partir inicialmente de modelos mais complexos.

Como aplicar a simplicidade na análise de dados?

Considerando o que apontamos acima, fica claro que partir do princípio de que as explicações mais complexas são necessariamente os melhores caminhos para responder às questões levantadas faz com que surjam mais problemas do que soluções. Logo, o profissional de Big Data que insiste em desprezar o princípio da simplicidade na análise de dados está promovendo o desperdício de tempo, energia e capital humano ao se debruçar prematuramente sobre uma premissa equivocada na busca da compreensão de explicações desnecessariamente complexas.

Para não cair nessa armadilha e evitar todo o transtorno que ela pode causar, o ideal é que o cientista de dados realize a análise partindo do modelo simples, e vá evoluindo em sua complexidade conforme a necessidade. É importante evitar iniciar a análise através de modelos complexos logo de cara, pois eles aumentam a probabilidade de que o modelo esteja sendo moldado a um conjunto de dados específicos, comprometendo a generalização e sua aplicabilidade em outros conjuntos.

Esperamos que agora você possa compreender melhor a importância de priorizar os modelos de análise simples e busque aplicar esse princípio básico na análise de dados da sua empresa. Dessa forma seu negócio poderá desfrutar de benefícios como a otimização dos processos, a redução do tempo gasto nas atividades que envolvem a conferência e compreensão dos resultados propostos e o direcionamento correto de mão de obra e energia para as análises com mais chances de gerarem resultados assertivos.

 

BigData Corp

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *