Nowe narzędzie dla artystów pozwala zwalczać skrobaczki AI poprzez “zatrucie” danych

De Glaze Project van de Universiteit van Chicago heeft Nightshade v1.0 uitgebracht, een tool die kunstenaars in staat stelt om AI generatieve modellen te saboteren die hun werk gebruiken voor training. Nightshade brengt onmerkbare veranderingen aan op het pixelniveau in afbeeldingen, waardoor misinformatie wordt geïntroduceerd bij AI modellen. Hierdoor interpreteren ze de afbeeldingen als iets anders en beïnvloeden ze vervormde resultaten, zoals het identificeren van kubistische stijl als cartoon.

De tool is momenteel beschikbaar voor Windows-systemen en Apple Silicon Macs.

Tijdens tests heeft Nightshade zijn effectiviteit aangetoond door het “vergiftigen” van een AI beeldgeneratiemodel na te bootsen. Hier zijn een paar voorbeelden van de effecten van dit proces.

Voorbeelden van “Vergiftiging” van AI Modellen

Een van de tests die met Nightshade zijn uitgevoerd, betrof het vergiftigen van een AI beeldgeneratiemodel dat getraind was op data om kubistische afbeeldingen te maken. Na het introduceren van invloedrijke veranderingen via Nightshade begonnen de AI modellen deze afbeeldingen te interpreteren als cartoons. Het effect was verrassend en intrigerend, waarbij werd aangetoond hoe manipulatie van gegevens invloed kan hebben op de resultaten van AI generatieve modellen.

Een ander voorbeeld betrof het vergiftigen van een AI model dat bedoeld was om de stijl van impressionistische schilderijen te herkennen. Na aanpassingen door Nightshade begonnen de AI modellen de afbeeldingen echter te interpreteren als abstracties, waardoor de verwachte resultaten volledig werden veranderd.

Nightshade v1.0 opent nieuwe mogelijkheden voor kunstenaars die het gevoel hebben dat hun creativiteit op een ongewenste manier wordt gebruikt. De tool stelt hen in staat om zich te verdedigen tegen AI scrapers en invloed uit te oefenen op de resultaten van generatieve AI modellen.

Veelgestelde vragen (FAQ)

Vraag: Wat is Nightshade?
Antwoord: Nightshade is een tool ontwikkeld door het Glaze Project van de Universiteit van Chicago waarmee kunstenaars AI generatieve modellen kunnen saboteren door misinformatie op het pixelniveau in afbeeldingen te introduceren.

Vraag: Hoe beïnvloedt Nightshade AI modellen?
Antwoord: Nightshade brengt onmerkbare veranderingen aan op het pixelniveau in afbeeldingen, waardoor misinformatie ontstaat voor AI modellen. Dit leidt tot het anders interpreteren van afbeeldingen door modellen, wat resulteert in vervormde uitkomsten.

Vraag: Welke besturingssystemen ondersteunen Nightshade?
Antwoord: Nightshade is momenteel beschikbaar voor Windows-systemen en Apple Silicon Macs.

Vraag: Wat zijn voorbeelden van “vergiftiging” van AI modellen met behulp van Nightshade?
Antwoord: Een voorbeeld is het vergiftigen van een AI model dat getraind is om kubistische afbeeldingen te maken, waarbij de AI modellen na Nightshade-aanpassingen de afbeeldingen interpreteren als cartoons. Een ander voorbeeld is het vergiftigen van een AI model dat bedoeld is om de stijl van impressionistische schilderijen te herkennen, maar na Nightshade-aanpassingen interpreteren de modellen de afbeeldingen als abstracties.

Vraag: Welke mogelijkheden biedt Nightshade voor kunstenaars?
Antwoord: Nightshade v1.0 stelt kunstenaars in staat om zich te verdedigen tegen ongewenste exploitatie van hun creativiteit door AI modellen. De tool stelt hen in staat om invloed uit te oefenen op de resultaten van generatieve AI modellen en geeft hen controle over de interpretatie van hun werk.

Handige Links:

Website van het Glaze Project van de Universiteit van Chicago

The source of the article is from the blog maestropasta.cz