Um dos mais recentes avanços da inteligência artificial (IA) foi o lançamento, pela OpenAI Foundation, do software GPT-3. O programa, sofisticado e robusto, gera conteúdo de texto de forma nunca vista antes, em diversos tipos de gêneros, com altíssima semelhança a produções humanas. Pode ser utilizado nas mais diferentes aplicações, da rotulação de imagens à escrita de artigos e, até mesmo, na construção de códigos de computador. No entanto, ao funcionar com tecnologia machine learning, o GPT-3 “aprende” de uma variedade de bancos de dados, entre os quais há conteúdos de ódio, racismo e xenofobia, por exemplo. Cabe, então, refletir: como controlar as questões éticas e morais nos processos tecnológicos?

Recentemente, na Reddit, uma rede social composta por fóruns, um perfil denominado “thegentlemetre” postou vários comentários extremamente elaborados, que chamaram atenção do escritor e empresário Philip Winston. Ele se surpreendeu com a rapidez e a complexidade das respostas publicadas em seu blog, vindas daquele usuário. Quando foi relevado que se tratava de um bot usando o modelo de linguagem GPT-3, o robô foi desligado. A descoberta de Winston foi relatada em um artigo publicado na MIT Technology Review, que destacou: “Muitas respostas tinham uma qualidade que só pode ser encontrada em demos da API de aprendizado de máquina da OpenAI, que não estão abertas ao público”.

Esse é só um exemplo dos desafios que a IA começa a colocar para um mundo cada vez mais à mercê da guerra de informações e contrainformações, na arena das redes sociais, onde visões e crenças se digladiam diariamente. Felizmente, a sociedade já vem sinalizando que entendeu o recado. Um estudo encomendado pelas empresas de tecnologia SAS, Intel e Accenture mostrou que, no Brasil, 69% das empresas estão treinando seus colaboradores para atuar de forma ética na utilização de inteligência artificial.

Um dos dilemas da IA é identificar os limites de compreensão das máquinas sobre questões essencialmente humanas. O quanto são capazes de definir o que é bom ou ruim, julgar o certo e o errado. Especialistas da IBM e do MIT Media Lab estão trabalhando nisso. Os pesquisadores se dedicam a desenvolver uma ferramenta de recomendações baseada em inteligência artificial para apresentar conteúdos que não só foquem no interesse do público, mas que levem em consideração diretrizes éticas e comportamentais.

Outra iniciativa, do Institute of Electrical and Electronic Engineers (IEEE), foi a elaboração do Ethically Aligned Design. O instituto alinhou princípios que devem nortear a questão da ética na IA: princípio do benefício humano, para que a IA não desrespeite direitos humanos; princípio da responsabilidade, segundo o qual os poderes eleitos ou o próprio poder judiciário devem criar normas claras de responsabilidade jurídica envolvendo casos com IA; princípio da transparência; e princípio da educação e consciência.

Embora ainda não haja consenso sobre como ensinar ética e a moralidade aos algoritmos, é fundamental ter essa preocupação sempre à vista, nos processos de desenvolvimento tecnológicos. É preciso cuidado para que a inteligência artificial não se torne um instrumento que, em vez de reduzir, reforce teorias e atitudes preconceituosas e antiéticas.

 

Para ler mais: https://www.technologyreview.com/2020/09/25/1008921/ai-allen-institute-generates-images-from-captions/https://www.technologyreview.com/2020/10/08/1009845/a-gpt-3-bot-posted-comments-on-reddit-for-a-week-and-no-one-noticed/

BigDataCorp