A partir de hoje vamos começar uma nova série de posts aqui no blog: “Desenvolvendo o Pensamento com Dados”. Neste primeiro texto vamos falar sobre os modelos preditivos de análise de dados. Conforme já falamos um pouco neste post aqui, a análise preditiva tem como objetivo prever o futuro. Falando desse jeito pode parecer fácil e absurdo ao mesmo tempo, não é? No entanto pode ficar tranquilo, nós garantimos que não se trata nem de um caso e nem de outro.

Em linhas gerais, o modelo preditivo consiste em analisar um imenso e variado volume de dados em busca de padrões de repetição e, a partir da identificação desses padrões, desenvolver algoritmos capazes de replicar a lógica dos mesmos na análise de novos grupos dados.

Os modelos preditivos são divididos em dois tipos: os supervisionados e os não supervisionados. A diferença entre eles está basicamente no processo de machine learning utilizado em cada um. No modelo preditivo supervisionado há uma etapa chamada de treinamento, na qual os dados de entrada e a saída são apresentados juntos, e o treinamento acontece até o momento em que o modelo aprende a mapear os dados e a identificar padrões entre as entradas e as saídas. Já os modelos não supervisionados recebem somente os dados de entrada e seu objetivo é encontrar as conexões entre os dados apresentados. Logo, o objetivo de toda essa operação é a capacidade de extrair informação dessa grande massa de dados, a partir da previsão de acontecimentos futuros que sigam a mesma lógica identificada.

Para trazer essa explicação para um plano mais palpável, tenha em mente as previsões do tempo. A meteorologia é um ramo que utiliza o modelo preditivo há bastante tempo, sempre se baseando nas probabilidades e estatísticas acerca dos padrões de comportamento de fenômenos naturais. Para todos os outros segmentos o princípio é o mesmo, bastando ter em mente que quanto maior o número de dados e variáveis, maior o número de nuances e mais complexa é essa análise.

Diante de uma possibilidade tão promissora, não é de se admirar que o potencial dos modelos preditivos de análise de dados tenha chamado tanto a atenção do mundo corporativo. Contudo, se já chegamos ao ponto em que podemos utilizar as tecnologias de Big Data para prever o futuro e nos antecipar às tempestades, meteorológica e metaforicamente falando, por que ainda somos pegos de surpresa tantas vezes?

A verdade é que o modelo preditivo carrega uma promessa de infalibilidade e com ela certa carga de alivio, como se as empresas que o adotassem estivessem acima das decisões puramente humanas, tomadas com base na experiência e na intuição de seus gestores. O cenário tecnológico atual, que avança mais rápido a cada dia, despertou no indivíduo um sentimento de limitação que faz com que muitas vezes ele caia na armadilha de acreditar que máquinas não falham.

Por precaução, um empresário sábio deve sempre desconfiar de previsões muito otimistas, sejam elas baseadas em dados ou não. No caso daquelas que são baseadas em Big Data, é sempre bom lembrar que dados são fragmentos virtuais do que acontece no mundo real, e como tais estão sujeitos a falhas, inconsistência e má interpretação. Além disso, as ferramentas desenvolvidas para agrupar, organizar, analisar e minerar dados também não estão livres de erros.

A capacidade de reconhecer limitações é extremamente importante para seguir na busca por aperfeiçoamento. E, assim como no âmbito pessoal, é preciso reconhecer essas limitações também nas ferramentas de Big Data, que atualmente servem a tantas empresas. Muito mais eficiente para os negócios do que pôr a tecnologia em um pedestal e usá-la indiscriminadamente é se cercar de profissionais capacitados, capazes não só de extrair o máximo potencial dela como também de compreender essas limitações e evitar que elas contaminem informações válidas, comprometendo os resultados da empresa.

 

BigDataCorp