O uso da Inteligência Artificial (IA) está crescendo rapidamente na sociedade, podendo ser aplicada em diversos setores. Com esses rápidos avanços, além de oportunidades, novos desafios são criados. A classificação de imagem é atualmente uma das tarefas mais importantes no machine learning, área dedicada à construção de sistemas capazes de aprender e melhorar seu desempenho a partir dos dados que processam.
O tema foi discutido durante o painel “Segurança em Inteligência Artificial: Protegendo o Futuro da Inovação”, conduzido pelos estudantes Carlos Marques, Guilherme Wallace e Rodrigo de Castro Michelassi, integrantes da Liga de Estudos em Aprendizado de Máquina e Redes Neurais (Learn), um grupo do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP). O evento ocorreu na 16ª edição da Campus Party Brasil, realizada entre os dias 9 e 13 de julho no Expo Center Norte em São Paulo, com a Mercado&Consumo como media partner.
“Se eu pedir para vocês classificarem qual o principal elemento de uma determinada imagem, o que se destaca mais do que tudo? Bom, a resposta que eu imagino que todo mundo daria seria que o elemento principal, e isso está fácil de a gente fazer como humanos”, afirma Michelassi. Ele explica que para o machine learning é necessário basicamente criar um modelo matemático que, através de dados e conjuntos de operações estatísticas, consegue resolver tarefas como essa de classificar o elemento de uma imagem.
Carlos Marques aponta que o modelo de rede neural do Google, lançado em 2012 e conhecido como Google Neural Network (CNN), mostrou-se o mais eficiente no trabalho de classificação de imagens do que qualquer outro modelo. “A partir daí, vem o boom do deep learning. É evidente que esse boom vai repercutir um pouco na academia.” O deep learning é uma área da IA que utiliza redes neurais artificiais para aprender e realizar tarefas complexas a partir de grandes volumes de dados
Imagens com erros raciais
No início do ano, o Google suspendeu temporariamente a geração de imagens pelo Gemini, sua plataforma de IA. A empresa tomou essa decisão após usuários mostrarem nas redes sociais que imagens inapropriadas e incorretas estavam sendo criadas pela ferramenta.
A suspensão do recurso ocorreu um dia após o Google reconhecer os erros históricos e pedir desculpas pela falha. Uma das principais imagens que levou a empresa a se pronunciar publicamente surgiu a partir de um comando para reproduzir soldados alemães no ano de 1943 – uma referência à Segunda Guerra Mundial e à Alemanha Nazista. Na imagem gerada pela IA, os combatentes, que possuem um símbolo semelhante a uma suástica, são retratados como negros e asiáticos.
Rodrigo de Castro Michelassi, em entrevista à M&C, explica os fatores que podem levar a problemas semelhantes aos enfrentados pelo Google. “Suponhamos que o pessoal do Google estava treinando um modelo generativo de imagens, e durante o treinamento desse modelo havia imagens de pessoas negras e asiáticas usando a suástica no braço (como relatado na notícia), ou até mesmo havia poucas imagens de pessoas brancas usando a suástica no braço. Quando se solicita alguma ação que, nos dados de treinamento, era representada com mais frequência por pessoas negras, isso pode ser considerado um viés. Assim, quando o modelo gera uma imagem de uma pessoa realizando essa ação, ele pode inferir que seja uma pessoa não branca.”
Com informações de Mercado&Tech.
Imagens: Shutterstock e Mercado&Consumo