A coisa mais importante que aprendemos, com o avanço da Inteligência Artificial (IA) em diversas áreas de conhecimento, é que a tecnologia é capaz de realizar feitos nunca antes imaginados, mas nada acontece por passe de mágica. Tudo é fruto de um conjunto de dados e processamentos, que geram novos dados e se aprimoram a partir de novos processamentos. Ou seja, uma máquina aprende e ganha autonomia, sem dúvida. No entanto, o seu bom desempenho depende de modelos de aprendizagem pré-definidos, que implicam o reconhecimento de padrões pré-estabelecidos.

Um artigo do editor do portal MIT Technology, em fevereiro deste ano, alertou que programas de IA podem ser mais vulneráveis do que se imagina. Will Douglas Heaven conta que, em um experimento com um game de futebol de ponta, na hora em que o jogador ia chutar em direção ao gol, o goleiro, em vez de se posicionar para a defesa, atira-se ao solo e joga esperneando e sacudindo pernas e braços. Ao ser exposto a essa reação inusitada, o atacante, em vez de chutar, também cai no chão, sem saber o que fazer, e perde sua chance de gol.

Nos últimos anos, acrescenta Heaven, os pesquisadores descobriram muitas maneiras de burlar essas soluções: “Pequenos ajustes, como alterar alguns pixels em uma imagem, podem deixar a IA completamente confusa, fazendo com que a imagem de um bicho-preguiça seja identificada como um carro de corrida, por exemplo”.

Conclusão: os algoritmos trabalham perfeitamente bem, desde que não se deparem com uma variável não prevista na concepção operacional arquitetada para atingir determinado objetivo. Diante de uma situação que não consegue interpretar, o sistema fica sujeito a erros que podem trazer sérios prejuízos aos resultados. Por isso, é fundamental ter cautela com o hype da IA e entender seus limites e potenciais riscos.

Apesar de absorver e processar milhões de exemplos para aprender, uma solução computacional não tem a mesma capacidade do cérebro humano de lidar com o inesperado. Se de repente surgir um dado inusitado, ou um dado de má qualidade, que não corresponda ao padrão esperado, será preciso rever a programação. A máquina não é capaz de responder a uma demanda que não havia sido pensada com antecipação.

Outra diferença importante, destacada pelos cientistas, é que a inteligência humana – ao contrário da artificial – é alimentada também pela intuição. Uma mudança brusca de direção ao atravessar uma rua, uma jogada mais arriscada em uma partida de tênis, atitudes que muitas vezes o ser humano toma sem pensar muito, mas com total domínio da situação, podem fazer a diferença entre o sucesso e o desastre. Os humanos podem enfrentar um acidente extraordinário com criatividade, entendendo o novo contexto e buscando uma solução imediata. Os algoritmos precisariam ter sido “avisados” de que aquele acidente poderia acontecer.

Assim, enquanto a IA não tem a capacidade de reagir ao mundo da mesma forma como os humanos – e não se sabe se e quando isso acontecerá –, é fundamental conhecer e avaliar não apenas o potencial, mas também as fragilidades da computação nas estratégias corporativas e nos modelos de negócios.

BigDataCorp