Desafios éticos e legais do uso de imagens e dados pessoais no treinamento de Inteligência Artificial

Desafios éticos e legais do uso de imagens e dados pessoais no treinamento de Inteligência Artificial

O avanço da Inteligência Artificial (IA) vem mudando a forma como as pessoas interagem com a tecnologia e com o mundo. No entanto, ao mesmo tempo em que esses avanços trazem inúmeros benefícios, também trazem desafios éticos e legais, especialmente, no que se refere ao uso de dados pessoais, incluindo imagens, pois esses dados são fundamentais para treinar algoritmos de IA em tarefas como reconhecimento de imagem, processamento de linguagem natural e condução autônoma. O uso desses dados levanta preocupações éticas e legais significativas, especialmente quando se trata de imagens de pessoas e propriedades protegidas por direitos autorais.

Este artigo examinará os desafios associados ao uso não autorizado de imagens e dados pessoais no treinamento de IA, bem como as implicações éticas e legais dessas práticas.

A aprendizagem de máquina e a IA dependem de grandes quantidades de dados para treinar algoritmos e modelos eficazes. Esses dados incluem informações pessoais, como fotos, mensagens, preferências e hábitos de navegação, dentre outros. Sendo assim, a utilização desses dados levanta questões sobre a privacidade e a segurança dos indivíduos.

A privacidade e a segurança de dados pessoais são fundamentais para proteger os direitos individuais e garantir que os usuários mantenham o controle sobre suas informações. Muitas imagens e vídeos estão sujeitos a direitos autorais, e seu uso não autorizado para treinar algoritmos de IA pode constituir uma violação desses direitos. Empresas e pesquisadores frequentemente coletam esses dados de várias fontes, como bancos de imagens públicas, câmeras de vigilância, redes sociais e drones. E a reprodução e distribuição não autorizadas de conteúdo protegido por direitos autorais podem resultar em ações legais contra os responsáveis.

A propriedade intelectual e os direitos autorais também representam uma preocupação no uso de imagens e outros dados para o treinamento de IA. O uso não autorizado de imagens protegidas por direitos autorais pode resultar em violações legais e prejuízos financeiros.

Recentemente, a Nvidia foi processada por violação de direitos autorais. Três autores, Brian Keene, Abdi Nazemian e Stewart O’Nan, alegam que suas obras literárias foram usadas sem autorização para treinar o modelo de inteligência artificial NeMo, desenvolvido pela empresa. Os autores alegam que a Nvidia não respeitou os direitos autorais dos livros utilizados para treinar o NeMo e estão exigindo indenização pelo uso não autorizado de suas obras. Os valores não foram especificados, mas, caso a justiça aceite os argumentos e as provas da acusação, todos os escritores que tiveram suas obras usadas para treinamento nos últimos três anos serão beneficiados.

Este não é o primeiro caso de processo por direitos autorais. Recentemente, a Microsoft e OpenAI foram processadas pelo jornal americano The New York Times por violação de direitos autorais por usar “milhões” de textos do jornal para treinamento do ChatGPT sem solicitar autorização. Consequentemente, a transparência e a responsabilidade são outros desafios importantes a serem enfrentados no uso de IA. É fundamental que os desenvolvedores e os usuários de IA compreendam como os algoritmos funcionam e quais são suas limitações. Além disso, a sociedade deve discutir e estabelecer princípios éticos para garantir que a IA seja utilizada de maneira ética e responsável.

Outra questão relevante que merece atenção é o sobre o Bias, que se refere à tendência de um algoritmo de IA de favorecer certos resultados ou grupos sobre outros devido ao viés ou à falta de representatividade nos dados utilizados para treinar o algoritmo. Isso pode levar à reprodução e amplificação de preconceitos e discriminação. Por exemplo, um algoritmo de seleção de candidatos para uma vaga de emprego pode ter um viés contra mulheres ou minorias étnicas se for treinado com dados historicamente discriminatórios.

Diante dessas preocupações éticas e jurídicas, é crucial adotar abordagens responsáveis e transparentes para o uso de imagens e dados pessoais no treinamento de IA. Algumas das medidas que podem ser implementadas incluem: consentimento informado, anonimização de dados, licenciamento adequado, transparência e responsabilidade.

Ao adotar abordagens responsáveis e transparentes, podemos promover o desenvolvimento ético e sustentável da IA garantindo que ela beneficie a sociedade como um todo.

Conclusão

Em síntese, o uso de imagens e dados pessoais no treinamento de IA oferece oportunidades significativas na visão computacional e em outras áreas relacionadas, no entanto, é essencial abordar as preocupações éticas e jurídicas associadas ao uso não autorizado desses dados, garantindo a proteção da privacidade, consentimento
informado e respeito pelos direitos autorais.

Ao adotar abordagens responsáveis e transparentes, podemos contribuir promovendo o desenvolvimento ético e sustentável da IA, disseminando a importância de abordar esses desafios em uma sociedade cada vez mais digital e dependente de IA, a necessidade de um diálogo contínuo entre especialistas, legisladores e sociedade em geral para desenvolver soluções éticas e legais para esses desafios, garantindo assim que ela beneficie a sociedade como um todo.

Valéria Toriyama e Ana Paula Caseiro Camargo são advogadas do Caseiro e Camargo Advocacia Estratégica.
*Este texto reproduz a opinião do autor e não reflete necessariamente o posicionamento da Mercado&Consumo.

Imagem: Shutterstock

Sair da versão mobile