Uma das principais premissas de qualquer estudo científico é permitir o compartilhamento de informações sobre suas etapas de desenvolvimento, a metodologia utilizada e as conclusões obtidas. Dessa forma, outros especialistas podem acompanhar a evolução da investigação e, a partir dos dados divulgados, avançar rumo a novas observações e análises.

No campo da Inteligência Artificial (IA), essa lógica não é diferente. Mas não é isso que está acontecendo no mundo das pesquisas sobre essa tecnologia, devido a dois fatores. Primeiro, o alto custo do treinamento de modelos avançados de IA, que só grandes empresas privadas conseguem bancar. Segundo, e mais importante, na maioria das vezes, os dados desses experimentos são fechados, disponíveis apenas para as marcas que realizaram ou patrocinaram o trabalho – habitualmente, as gigantes da tecnologia.

Essa falta de transparência nas pesquisas de IA tem gerado insatisfação crescente entre os cientistas. Recentemente, a revista Nature publicou uma carta, assinada por 31 pesquisadores, sobre um estudo do Google Health, divulgado no início de 2020, que relatava o sucesso de testes com uma solução de IA capaz de detectar câncer de mama em exames de imagens. De acordo com os signatários do documento, a equipe do Google forneceu tão poucas informações técnicas do algoritmo que o estudo poderia ser considerado mais uma promoção de tecnologia proprietária do que uma peça científica.

“Não aguentávamos mais”, desabafou Benjamin Haibe-Kains, o principal autor da resposta, que estuda genômica computacional na Universidade de Toronto, Canadá. “Não é sobre este estudo em particular – é uma tendência que temos testemunhado há vários anos, e que começou realmente a incomodar”, disse. O cientista defende que um artigo publicado em uma revista científica ou divulgado em uma conferência tem o dever de publicizar o código da solução ou do produto para que outros possam executá-lo. “Os limites entre construir um produto e fazer pesquisa estão ficando mais confusos a cada minuto”, alertou Haibe-Kains.

De fato, o espírito colaborativo ainda engatinha nesse segmento da economia. O Relatório do Estado da IA 2020, de autoria dos investidores Nathan Benaich e Ian Hogarth, aponta que apenas 15% dos estudos de inteligência artificial compartilham os dados referentes a detalhes de códigos, programas e hardwares. E que pesquisadores da indústria são ainda mais fechados do que os acadêmicos – o que afeta diretamente a qualidade dos resultados, uma vez que o mesmo produto pode ter desempenhos diferentes em um laboratório universitário e em uma linha de produção no chão de fábrica.

Haibe-Kains explica que construir modelos de IA envolve muitas pequenas mudanças, como adicionar parâmetros aqui, ajustar valores ali. Qualquer um deles pode fazer a diferença entre o funcionar e o não funcionar. “Sem metadados que descrevam como os modelos são treinados e ajustados, o código pode ser inútil. O diabo está realmente nos detalhes”, frisa ele.

Assim, quanto mais a inteligência artificial se torna relevante no mundo, mais é preciso que os dados sejam abertos, permitindo a difusão do conhecimento. É a “replicabilidade” dos resultados experimentais que garante a outras pessoas condições de reproduzir um projeto e contribuir para aperfeiçoá-lo, validando o que foi feito, explorando hipóteses adicionais e alcançando novas conquistas.

 

Para se aprofundar no assunto: https://bit.ly/3qeN8r4

BigDataCorp