Nowe narzędzie dla artystów pozwala zwalczać skrobaczki AI poprzez “zatrucie” danych

Projekt Glaze Uniwersytetu Chicagowskiego wydał Narzędzie Nightshade v1.0, które umożliwia artystom sabotażowanie modeli generujących AI, które wykorzystują ich prace do szkolenia. Nightshade wprowadza niezauważalne zmiany na poziomie pikseli w obrazach, wprowadzając dezinformację do modeli AI, powodując ich interpretację obrazów jako czegoś innego i wpływając na zniekształcone wyniki obrazów, takie jak identyfikacja stylu kubistycznego jako kreskówki.

Narzędzie jest obecnie dostępne dla systemów Windows i Apple Silicon Mac.

Podczas testowania Nightshade wykazało swoją skuteczność, replikując “zatrucie” modelu generacji obrazów AI. Oto kilka przykładów efektów tego procesu.

Przykłady “zatrucia” modelu AI

Jednym z testów przeprowadzonych za pomocą Nightshade było zatrucie modelu generacji obrazów AI, szkolenego na danych do tworzenia obrazów w stylu kubistycznym. Po wprowadzeniu wpływowych zmian za pomocą Nightshade, modele AI zaczęły interpretować te obrazy jako kreskówki. Efekt był zaskakujący i fascynujący, pokazując, jak manipulacje danymi mogą wpływać na wyniki modeli generujących AI.

Innym przykładem było zatrucie modelu AI, który miał rozpoznawać styl obrazów impresjonistycznych. Jednak po modyfikacjach za pomocą Nightshade, modele AI zaczęły interpretować obrazy jako abstrakcje, całkowicie zmieniając oczekiwane wyniki.

Nightshade v1.0 otwiera nowe możliwości dla artystów, którzy uważają, że ich kreatywność jest wykorzystywana w niepożądany sposób. Narzędzie pozwala im bronić się przed skroborzami AI i wpływać na wyniki modeli generujących AI.

FAQ

Pytanie: Co to jest Nightshade?
Odpowiedź: Nightshade to narzędzie opracowane przez Projekt Glaze Uniwersytetu Chicagowskiego, które umożliwia artystom sabotowanie modeli generujących AI poprzez wprowadzanie dezinformacji na poziomie pikseli w obrazach.

Pytanie: Jak Nightshade wpływa na modele AI?
Odpowiedź: Nightshade wprowadza niezauważalne zmiany na poziomie pikseli w obrazach, wprowadzając dezinformację dla modeli AI. Powoduje to interpretację obrazów przez modele w inny sposób, co prowadzi do zniekształconych rezultatów.

Pytanie: Jakie systemy operacyjne obsługują Nightshade?
Odpowiedź: Nightshade jest obecnie dostępne dla systemów Windows i Apple Silicon Mac.

Pytanie: Jakie są przykłady “zatrucia” modelu AI za pomocą Nightshade?
Odpowiedź: Jednym z przykładów jest zatrucie modelu AI szkolenego do tworzenia obrazów w stylu kubistycznym, który po modyfikacjach za pomocą Nightshade interpretuje jako kreskówki. Innym przykładem jest zatrucie modelu AI stworzonego do rozpoznawania stylu obrazów impresjonistycznych, ale po modyfikacjach za pomocą Nightshade modele interpretują obrazy jako abstrakcje.

Pytanie: Jakie możliwości otwiera Nightshade dla artystów?
Odpowiedź: Nightshade v1.0 umożliwia artystom obronę przed niepożądanym wykorzystaniem ich kreatywności przez modele AI. Narzędzie pozwala im wpływać na wyniki modeli generujących AI, dając kontrolę nad interpretacją ich prac.

Przydatne linki:

Strona projektu Glaze Uniwersytetu Chicagowskiego

The source of the article is from the blog yanoticias.es