Nowe narzędzie dla artystów pozwala zwalczać skrobaczki AI poprzez „zatrucie” danych

Az University of Chicago Glaze Project néven futó Nightshade v1.0 nevű eszköze lehetővé teszi a művészek számára, hogy „adatmérgezés” útján károsítsák azokat az AI generatív modelleket, amelyek az alkotásaikat használják a tanuláshoz. A Nightshade a képek pixelei szintjén nem érzékelhető változtatásokat hajt végre, félrevezető információkat vezet be az AI modellekbe, ezáltal a képeket másként értelmezi és befolyásolja a torzított képi eredményeket, például a kubista stílust karikatúraként azonosítva.

Az eszköz jelenleg Windows rendszerekre és Apple Silicon Mac-ekre érhető el.

A Nightshade hatékonyságát tesztelés közben mutatta be, amikor egy AI képgeneráló modell „mérgező” utánzatát reprodukálta. Itt van néhány példa ennek a folyamatnak az hatásaira.

Példák az AI Modell „Mérgezésére”

Az egyik teszt a Nightshade segítségével arra irányult, hogy mérgezzünk egy olyan AI képgeneráló modellt, amely kubista stílusú képek létrehozására volt képezve. Miután a Nightshade által bevezetett befolyásoló változtatásokat használták, az AI modellek a képeket karikatúrákként értelmezték. Ez az eredmény meglepő és érdekes volt, és rámutatott arra, hogy az adatmanipuláció hogyan befolyásolhatja az AI generáló modellek eredményeit.

Másik példa volt egy AI modell mérgezése, amely a lenyomatművészet stílusát volt hivatott felismerni. Azonban a Nightshade módosításait követően az AI modellek az alábbi képeket absztrakcióként értelmezték, teljesen megváltoztatva az elvárt eredményeket.

A Nightshade v1.0 új lehetőségeket nyit meg azoknak a művészeknek, akik úgy érzik, hogy kreativitásuk nem kívánt módon kizsákmányolásra kerül. Az eszköz lehetővé teszi számukra a védekezést az AI scrapek ellen és befolyásolja a generatív AI modellek eredményeit.

GYIK

Kérdés: Mi az a Nightshade?
Válasz: A Nightshade egy eszköz, amelyet az University of Chicago Glaze Project fejlesztett ki, és lehetővé teszi a művészek számára, hogy az AI generatív modelleket félrevezető információkkal károsítsák a képek pixeleinek szintjén.

Kérdés: Hogyan befolyásolja a Nightshade az AI modelleket?
Válasz: A Nightshade észrevétlen változtatásokat hajt végre a képek pixelein a félrevezető információk érdekében az AI modellek számára. Ennek eredményeként a modellek eltérően értelmezik a képeket, ami torzult eredményekhez vezet.

Kérdés: Melyik operációs rendszerek támogatják a Nightshade-t?
Válasz: A Nightshade jelenleg elérhető Windows rendszerekre és Apple Silicon Mac-ekre.

Kérdés: Milyen példák vannak az AI modell „mérgezésére” a Nightshade használatával?
Válasz: Egy példa az AI modell mérgezésére, amelyet a kubista stílusú képek létrehozására képeztek ki, és a Nightshade módosítása után az AI modellek karikatúrákként értelmezik ezeket a képeket. Egy másik példa az AI modell mérgezésére, amely a lenyomatművészet stílusát ismeri fel, de a Nightshade módosításai után az AI modellek az képeket absztrakcióként értelmezik.

Kérdés: Milyen lehetőségeket nyit meg a Nightshade a művészek számára?
Válasz: A Nightshade v1.0 lehetővé teszi a művészek számára, hogy védekezzenek az AI modellek nemkívánatos kreativitás kihasználása ellen. Az eszköz lehetővé teszi számukra a generatív AI modellek eredményeinek befolyásolását, lehetővé téve kontrollt saját munkájuk értelmezésének tekintetében.

Hasznos linkek:

University of Chicago’s Glaze Project honlapja

The source of the article is from the blog revistatenerife.com