O poder da Inteligência Artificial (IA) é inquestionável. Vivemos em um momento em que somos cada vez mais surpreendidos pela capacidade da tecnologia em realizar tarefas e resolver problemas que antes eram domínio exclusivo das pessoas. Dos modelos desenvolvidos pela DeepMind para vencer os campeões mundiais em jogos complexos, como o Go ou o Starcraft 2, até a capacidade sem precedentes do GPT-3 de não só escrever textos (ou código-fonte) como uma pessoa, mas também de gerar imagens a partir de qualquer texto, estamos vivenciando os estágios iniciais de uma transformação global. Nem as pizzas e os perfumes escapam.

No entanto, não é só a capacidade de resolução de problemas da inteligência artificial que nos surpreende. Muitas vezes, a tecnologia nos surpreende pela própria forma como os problemas são resolvidos. Um caso emblemático é o do falecido Projeto Loon, da Google, cujos algoritmos de I.A. redescobriram, sem nenhum input dos desenvolvedores, uma técnica de navegação inventada há centenas de anos por navegadores marítimos. E esse é só um exemplo. De novas permutações de jogos tradicionais, como o Xadrez, ao desenvolvimento de novas conjecturas matemáticas, e até a geração de música, a capacidade “criativa” dos métodos de aprendizado de máquina não devem nada a de qualquer indivíduo.

Essa criatividade, no entanto, não é sempre uma qualidade. A nossa falta de capacidade de explicar, de maneira objetiva, como os modelos chegaram aos resultados obtidos – que é o que gera a aparência de criatividade – é em muitos casos uma das principais barreiras a adoção de modelos automáticos para a solução de problemas mais complexos, ou para sua aplicação em situações mais críticas. A explicabilidade é um elemento fundamental para a construção de confiança das pessoas na tecnologia, e sem ela, corremos o risco de interromper a revolução da I.A. em seus estágios iniciais.

 

Complexidade, Arquitetura e Disponibilidade de Dados

Explicabilidade, como o próprio nome nos diz, tem a ver com a nossa capacidade de explicar o que está acontecendo dentro de um sistema. Nos processos de tomada de decisão, está relacionada com a possibilidade de explicar como e por quê uma decisão foi tomada, e porque foi tomada essa decisão em detrimento à outras.

Sistemas de tomada de decisão clássicos, que são simplesmente regras de negócios automatizadas, são facilmente explicáveis: o sistema tomou a decisão “X” porque os dados de entrada levaram as regras “R1”, “R2” e “R3” serem acionadas, e o resultado do acionamento dessas regras é “X”. Um fluxograma pode demostrar todo o processo de raciocínio, e qualquer pessoa, olhando de fora, consegue reproduzir os resultados do sistema de forma manual.

Quando misturamos a inteligência artificial no processo de tomada de decisão, ele passa a ser opaco. Os modelos de I.A. atuam como uma caixa preta, cujo resultado não pode ser reproduzido de maneira simples. Dois modelos desenvolvidos com os mesmos algoritmos – e até com os mesmos parâmetros iniciais – podem chegar a resultados completamente diferentes para o mesmo conjunto de dados de entrada, devido à perturbações aleatórias introduzidas no processo de treinamento. Mais do que isso, nem mesmo os desenvolvedores dos modelos conseguem reproduzir o seu funcionamento, seja manualmente ou de qualquer outra maneira, devido a maneira como os modelos são construídos.

Existem três principais fatores que levam à essa falta de explicabilidade. O primeiro é a complexidade dos modelos. Enquanto modelos de tomada de decisão tradicionais utilizam algumas dezenas de variáveis como entradas, um modelo como o GPT-3 utiliza mais de 170 bilhões de parâmetros de entrada, tornando qualquer tentativa de explicação das interações entre esses parâmetros totalmente impossível. O segundo fator é a própria arquitetura do processo de deep learning e das redes neurais que são construídas a partir dele.

Esses métodos, embora extremamente poderosos, não foram construídos para serem facilmente entendidos pelas pessoas. O último fator, sobre o qual já falamos anteriormente, é a indisponibilidade de dados. Muitas vezes, os dados utilizados no treinamento dos modelos de IA são propriedade de alguma empresa específica, ou não estão amplamente disponíveis para que os modelos possam ser replicados, dificultando ainda mais qualquer esforço de explicar o funcionamento interno dos mesmos.

 

Explainable AI e Transparência

É nesse contexto de falta de explicabilidade que surgiu a área de explainable AI. O objetivo dessa área de pesquisa é justamente desenvolver métodos, processos, algoritmos, tecnologia, e outros elementos necessários para tornar a inteligência artificial mais acessível e transparente, de um ponto de vista de entendimento, para todas as pessoas e empresas. A motivação por trás desse movimento não é simplesmente técnica. O fato da I.A. ser encarada como uma “caixa preta” é um grande problema para o avanço dessa tecnologia.

Muitos executivos de empresas afirmam que a falta de visibilidade sobre o funcionamento e o processo de tomada de decisão dos modelos de IA geram preocupações e fazem com que a tecnologia não seja adotada de forma mais ampla pelo mercado. Diversas regulamentações e exigências legais impedem setores inteiros – como a área de concessão de crédito – de utilizar os modelos mais modernos, justamente por não conseguirmos explicar como os modelos chegaram nos resultados encontrados. Fora a preocupação natural de qualquer pessoa – e da sociedade como um todo – de se submeter à uma decisão tomada por uma máquina que não somos capazes de entender.

Todos esses fatores demonstram a importância de desenvolvermos mecanismos que possibilitem auditar e explicar os modelos de inteligência artificial. Esse esforço é até mais importante do que o desenvolvimento de novas técnicas e modelos, porque quebra as barreiras de adoção de uma forma mais ampla da I.A. pelo mercado, trazendo novas aplicações e ampliando os benefícios da tecnologia para ainda mais pessoas.

BigDataCorp