Ainda em fase de projeto, o Nightshade surge como uma solução promissora para um problema cada vez mais denunciado por criadores de conteúdo como designers, fotógrafos e pintores: o uso não autorizado das suas criações no treino de modelos de inteligência artificial (IA) generativa.
Recentemente, na apresentação do DALL-E 3, a OpenAI confirmou que iria utilizar um modelo opt-out. Isto significa que, por defeito, consideram-se autorizados a treinar os seus modelos com criações de terceiros, oferecendo, contudo, a possibilidade de os criadores solicitarem que as suas obras não sejam utilizadas para este fim. Embora seja um avanço, o ideal seria um modelo opt-in, onde as tecnológicas só utilizassem dados explicitamente autorizados.
Contudo, nem todos os modelos oferecem esta possibilidade aos criadores. Em alguns casos, a publicação de uma obra pode torná-la automaticamente e irrevogavelmente objeto de consumo por algoritmos geridos por pessoas com pouco ou nenhum respeito pela propriedade intelectual. É neste contexto que surge o Nightshade.
Desenvolvido por uma equipa da Universidade de Chicago, o Nightshade permite “corromper” os arquivos de imagem de forma a que, visualmente, não sejam afetados, mas enganem os modelos, provocando interpretações do seu conteúdo. Assim, quanto mais imagens “envenenadas” pelo Nightshade forem utilizadas no treino do modelo, maior a probabilidade deste falhar quando começar a ser utilizado para criar novas imagens.
Atualmente, o Nightshade está em processo de revisão por pares e, caso supere esta fase com sucesso, esta tecnologia será incluída no Glaze, um desenvolvimento anterior criado pelo mesmo diretor de equipa e professor da Universidade de Chicago, Ben Zhao. O Glaze utiliza uma técnica semelhante, realizando modificações nos arquivos de imagens que não são percetíveis à primeira vista, mas que alteram substancialmente a perceção do modelo quando treinado com essas imagens.
O sucesso do Nightshade e do Glaze dependerá, evidentemente, da sua adoção por uma massa crítica de criadores, pois é necessário um número considerável de arquivos “envenenados” para que esta técnica tenha um impacto significativo no funcionamento do modelo.
O Nightshade representa uma solução inovadora e promissora para o problema do uso não autorizado de criações artísticas no treino de modelos de IA. No entanto, o seu sucesso dependerá da sua adoção em larga escala pelos criadores de conteúdo. Na minha opinião, iniciativas como esta são essenciais para garantir o respeito pela propriedade intelectual na era da IA, e espero que inspirem mais desenvolvimentos nesta direção.
Fonte: Technologyreview