Já se fala há muito tempo da “Revolução Industrial 4.0”, e da importância dos dados nessa transformação que estamos vivendo. A digitalização dos processos produtivos, estejam eles ocorrendo no chão das fábricas, nas fazendas, ou nos escritórios, permite a aplicação de dados coletados através de sensores e de sistemas de monitoramento para otimizar diferentes etapas da cadeia de produção. Com isso, as ferramentas utilizadas na produção – máquinas, software, tratores, não importa – ficam cada vez mais poderosas, e conseguimos trazer mais resultados com menos recursos. É a revolução dos processos industriais a partir dos dados.

Essa, no entanto, não é a única revolução industrial que estamos vivendo. Existe uma outra transformação, ocorrendo em paralelo, para a qual a maioria das pessoas não se atenta: a revolução industrial do processamento dos dados. Ainda hoje, muito do processamento de dados assume a forma de um trabalho artesanal. Alguns “artesãos”, que hoje chamamos de “cientistas de dados”, fazem todo o trabalho com a informação, trabalhando com ela desde as suas origens como dados brutos até produzirem um resultado relevante para a empresa: um relatório, uma visualização de dados, ou até mesmo um modelo que automatiza determinados processos ou toma decisões mais eficientes.

Porém, o crescimento exponencial do volume e da variedade de dados que precisam ser incorporados aos processos de análise tornam o trabalho artesanal cada vez mais complexo e, em alguns casos, até mesmo impossível. Ao mesmo tempo, as empresas querem cada vez mais automatizar seus processos, tomar mais decisões embasadas por dados, e usar modelos de inteligência artificial para otimizar seus negócios.

Com isso, trabalhar os dados de forma manual é inviável. As ferramentas quebram, os relatórios levam tanto tempo para ficar prontos que já saem com informações obsoletas, os modelos estatísticos acabam descartando atributos importantes nas suas tomadas de decisão. Montanhas cada vez maiores de dados foram sendo acumuladas e entrando no backlog de processamento e análise.

É justamente nesse contexto que aparece essa outra revolução industrial, da utilização de “máquinas” para automatizar e acelerar o processamento de dados para geração de valor para as empresas. Assim como na primeira revolução industrial passamos por uma mecanização e automação que otimizaram a produção de bens convencionais, a ideia é criar e utilizar um novo ferramental, que seja capaz de otimizar agora a produção de informação, conhecimento, e valor para a empresa a partir dos dados brutos.

Muitas das inovações que vem acontecendo, principalmente no campo de inteligência artificial, são justamente a materialização desse conceito. O recém-lançado sistema AlphaFold, desenvolvido pela DeepMind, é um bom exemplo. Trata-se de um modelo de inteligência artificial que analisa milhões de pontos de informação para prever a estrutura tridimensional de proteínas, uma tarefa que antes só poderia ser feita por seres humanos através de processos de pesquisa e experimentação.

O algoritmo é uma máquina que acelera e otimiza o processo de descoberta de conhecimento para laboratórios, empresas, e para a humanidade como um todo. O GPT-3, com sua capacidade de gerar conteúdo a partir de prompts simples, é um outro exemplo de uma máquina de processamento de dados que acelera a criação de produtos de informação, reduzindo a necessidade de interferência humana no processo.

Como acontece em qualquer revolução, não basta simplesmente adotarmos as ferramentas que estão sendo criadas. As empresas, e, especialmente, os departamentos de tecnologia (e de dados, caso sejam áreas separadas) precisam mudar a mentalidade utilizada na geração de valor a partir da informação. Não adianta montar uma “área de Data Science”, e achar que os cientistas de dados contratados vão resolver todos os problemas. Estamos entrando na era industrial da informação. Apenas as empresas que adotarem uma mentalidade industrial no tratamento e processamento de dados vão conseguir se manter no mercado.

BigDataCorp