Nowe narzędzie dla artystów pozwala zwalczać skrobaczki AI poprzez “zatrucie” danych

Novo instrumento para artistas permite combater raspadores de AI por meio de “envenenamento de dados”

2024-01-20

O Projeto Glaze da Universidade de Chicago lançou o Nightshade v1.0, uma ferramenta que possibilita aos artistas sabotar modelos AI de geração, que utilizam seu trabalho para treinamento. O Nightshade faz alterações imperceptíveis no nível de pixels das imagens, introduzindo informações falsas nos modelos de AI e fazendo com que eles interpretem as imagens como algo diferente, influenciando os resultados distorcidos, como a identificação do estilo cubista como desenho animado.

A ferramenta está atualmente disponível para sistemas Windows e Macs com Apple Silicon.

Durante os testes, o Nightshade demonstrou sua eficácia ao replicar o “envenenamento” de um modelo de geração de imagens AI. Aqui estão alguns exemplos dos efeitos desse processo.

Exemplos de “envenenamento” de modelo AI

Um dos testes realizados usando o Nightshade foi “envenenar” um modelo AI de geração de imagens treinado com dados para criar imagens no estilo cubista. Após introduzir mudanças influentes através do Nightshade, os modelos de AI começaram a interpretar essas imagens como desenhos animados. O efeito foi surpreendente e intrigante, demonstrando como a manipulação de dados pode influenciar os resultados dos modelos AI de geração.

Outro exemplo foi “envenenar” um modelo AI projetado para reconhecer o estilo das pinturas impressionistas. No entanto, após modificações feitas pelo Nightshade, os modelos de AI passaram a interpretar as imagens como abstrações, alterando completamente os resultados esperados.

O Nightshade v1.0 abre novas possibilidades para os artistas que sentem que sua criatividade está sendo explorada de maneira indesejável. A ferramenta permite que eles se defendam contra raspadores de AI e influenciem os resultados dos modelos AI de geração.

FAQ

Pergunta: O que é o Nightshade?
Resposta: O Nightshade é uma ferramenta desenvolvida pelo Projeto Glaze da Universidade de Chicago que permite aos artistas sabotar modelos de AI de geração, introduzindo informações falsas no nível de pixels das imagens.

Pergunta: Como o Nightshade afeta os modelos de AI?
Resposta: O Nightshade faz alterações imperceptíveis no nível de pixels das imagens, causando informações falsas para os modelos de AI. Isso resulta em modelos interpretando as imagens de forma diferente, levando a resultados distorcidos.

Pergunta: Quais sistemas operacionais suportam o Nightshade?
Resposta: O Nightshade está atualmente disponível para sistemas Windows e Macs com Apple Silicon.

Pergunta: Quais são os exemplos de “envenenamento” de modelo AI usando o Nightshade?
Resposta: Um exemplo é “envenenar” um modelo AI treinado para criar imagens no estilo cubista, que, após modificações feitas pelo Nightshade, os modelos de AI interpretam como desenhos animados. Outro exemplo é “envenenar” um modelo AI projetado para reconhecer o estilo de pintura impressionista, mas após modificações feitas pelo Nightshade, os modelos interpretam as imagens como abstrações.

Pergunta: Quais possibilidades o Nightshade abre para os artistas?
Resposta: O Nightshade v1.0 permite que os artistas se defendam contra a exploração indesejável de sua criatividade pelos modelos de AI. A ferramenta permite que eles influenciem os resultados dos modelos de AI de geração, dando-lhes controle sobre como seu trabalho é interpretado.

Links Úteis:

Website do Projeto Glaze da Universidade de Chicago

The source of the article is from the blog krama.net

Nowa odsłona Quake potwierdzona?
Previous Story

Existe um novo jogo de Quake confirmado? Trailer recente sugere que sim

SoftBank rozpoczyna próby terenowe technologii 5G Multi-access Edge Computing (MEC) z wykorzystaniem Segment Routing IPv6 Mobile User Plane (SRv6 MUP)
Next Story

Início dos testes de campo da SoftBank para a Computação em Borda Multi-acesso 5G com SRv6 MUP

Latest from News