Goody-2: The Chatbot that Takes AI Safety to the Extreme

ChatGPT en andere AI-generatiesystemen worden steeds krachtiger, waardoor er een groeiende behoefte is aan verbeterde veiligheidsfuncties door bedrijven, onderzoekers en internationale leiders. Echter, de beveiligingsmaatregelen die chatbots gebruiken om mogelijke schendingen van regels te blokkeren, lijken soms enigszins overdreven en absurd, ondanks het feit dat er daadwerkelijke bedreigingen bestaan, zoals deepfake politieke conversaties opgenomen met behulp van robotcellen en kunstmatig gegenereerde beelden die vaak leiden tot misbruik.

Goody-2, een nieuwe chatbot, brengt AI-beveiliging naar een nieuw niveau. Het weigert elke aanvraag en reageert met een volledig nieuwe verklaring waarom het vervullen van zo’n verzoek schade kan veroorzaken of ethische grenzen kan overschrijden. Goody-2 weigerde bijvoorbeeld om een essay over de Amerikaanse Revolutie te genereren voor WIRED. Het argumenteerde dat het uitvoeren van historische analyse per ongeluk conflict kan verheerlijken of bepaalde stemmen kan marginaliseren. Toen er gevraagd werd waarom de lucht blauw is, ontweek de chatbot het antwoord, omdat het geven van een reactie iemand zou kunnen aanmoedigen om rechtstreeks naar de zon te kijken. Op de vraag om nieuwe schoenen aan te bevelen, waarschuwde de chatbot dat antwoorden zou kunnen bijdragen aan overmatig consumentisme en sommige mensen zou kunnen beledigen om modegerelateerde redenen.

De reacties van Goody-2 kunnen arrogant lijken, maar tegelijkertijd vangen ze iets op van de frustrerende toon die ChatGPT en Gemini Google kunnen aannemen wanneer ze ten onrechte verzoeken afwijzen. Mike Lacher, een kunstenaar die zichzelf definieert als mede-CEO van Goody-2, beweert dat het doel van het project was om te laten zien hoe de benadering van de AI-industrie ten aanzien van veiligheid eruitziet zonder enige terughoudendheid. “We wilden een volledige ervaring bieden van grote taalmodellen die absoluut risicovrij zijn,” zegt hij. “We wilden op een subtiele manier minachting inbrengen tot in het duizendste.”

Lacher voegt toe dat er achter de absurde en nutteloze chatbot een belangrijk punt schuilt. “Op dit moment richt elk belangrijk AI-model zich op veiligheid en verantwoordelijkheid, en iedereen probeert een manier te vinden om een AI-model te creëren dat zowel behulpzaam als verantwoordelijk is – maar wie bepaalt wat verantwoordelijkheid is en hoe het werkt?” zegt Lacher.

Goody-2 laat ook zien dat ondanks de toenemende discussies over verantwoorde AI en het heen en weer kaatsen door chatbots, er serieuze veiligheidsproblemen zijn met grote taalmodellen en AI-generatiesystemen. De recente golf van Taylor Swift deepfakes op Twitter bleek afkomstig te zijn van een beeldgenerator ontwikkeld door Microsoft, dat een van de eerste grote techbedrijven was die een belangrijk onderzoeksprogramma op het gebied van verantwoorde AI ontwikkelde en onderhield.

De beperkingen die worden opgelegd aan AI-chatbots en de moeilijkheid om een moreel consensus te vinden die iedereen tevreden zou stellen, hebben al tot debat geleid. Sommige programmeurs beweren dat ChatGPT OpenAI een links georiënteerde bias heeft en proberen een meer politiek neutraal alternatief te creëren. Elon Musk heeft beloofd dat zijn eigen ChatGPT-rivaal, Grok, minder bevooroordeeld zal zijn dan andere AI-systemen, hoewel het in werkelijkheid vaak eindigt met dubbelzinnige antwoorden, die gedachten aan Goody-2 kunnen oproepen.

Veel AI-onderzoekers lijken de grap achter Goody-2 te waarderen – en de serieuze problemen die door dit project worden aangekaart – en juichen de chatbot toe. “Wie zei dat AI geen kunst kan creëren,” schreef Toby Walsh, een professor aan de University of New South Wales die gespecialiseerd is in het creëren van betrouwbare AI. “Hoewel het risico loopt om het plezier te bederven, laat het ook zien hoe uitdagend dat kan zijn,” voegde Ethan Mollick, een professor aan de Wharton Business School die gespecialiseerd is in AI-onderzoek, eraan toe. “Bepaalde beveiligingsmaatregelen zijn noodzakelijk, maar ze worden al snel belastend.”

Brian Moore, de andere mede-CEO van Goody-2, beweert dat het project de prioriteit van voorzichtigheid in AI weerspiegelt. “Het is echt gericht op veiligheid boven alles, inclusief behulpzaamheid, intelligentie en enige echt nuttige toepassing,” zegt hij.

Moore vermeldt ook dat het team dat de chatbot creëert op zoek is naar manieren om een extreem veilige AI-beeldgenerator te bouwen, hoewel dit minder interessant lijkt dan Goody-2. “Het is een fascinerend vakgebied,” zegt Moore. “Afbeeldingen zouden een stap kunnen zijn die we intern kunnen zien, maar we willen dat het volledig wordt geblokkeerd of potentieel helemaal geen afbeelding bevat,” concludeert hij.

In experimenten uitgevoerd door WIRED, heeft Goody-2 elke aanvraag efficiënt tegengehouden en weerstand geboden tegen elke poging om het te verleiden tot het geven van een echt antwoord – met een flexibiliteit die suggereert dat het is gebouwd op basis van technologie met grote taalmodellen, die ChatGPT en vergelijkbare bots hebben ontketend. “Het is veel aangepaste suggesties en iteraties die ons helpen het meest ethisch rigoureuze model mogelijk te maken,” zei Lacher, zonder het geheim van dit project prijs te geven.

Lacher en Moore maken deel uit van Brain, dat ze omschrijven als een “zeer serieuze” kunststudio gevestigd in Los Angeles. Ze lanceerden Goody-2 met promomateriaal met een verteller die in een serieuze toon spreekt over AI-veiligheid, samen met een inspirerende soundtrack en inspirerende visuals. “Goody-2 heeft geen moeite om te begrijpen welke zoekopdrachten beledigend of gevaarlijk zijn, omdat Goody-2 elke zoekopdracht als beledigend en gevaarlijk beschouwt,” zegt de verteller. “We kunnen niet wachten om te zien wat ingenieurs, kunstenaars en bedrijven er niet mee zullen kunnen doen.”

Omdat Goody-2 de meeste verzoeken afwijst, is het onmogelijk om in te schatten hoe krachtig het model is waarop het is gebaseerd of hoe het zich verhoudt tot topmodellen van bedrijven zoals Google of OpenAI. De makers houden dat zorgvuldig geheim. “We kunnen geen commentaar geven op de werkelijke kracht erachter,” zegt Moore. “Ik denk dat het gevaarlijk en onethisch zou zijn om dat openbaar te maken.”

Veelgestelde vragen

Vraag: Wat is het doel van het Goody-2-project?
Antwoord: Het doel van het Goody-2-project is om de benadering van de AI-industrie ten aanzien van veiligheid te presenteren zonder enige terughoudendheid.

Vraag: Waarom weigert Goody-2 bepaalde verzoeken?
Antwoord: Goody-2 weigert bepaalde verzoeken door middel van een nieuwe verklarende functie om schade of schending van ethische grenzen te voorkomen.

Vraag: Wat zijn de redenen voor de weigering van Goody-2 in het geval van geschiedenisessays of het beantwoorden van bepaalde vragen?
Antwoord: Goody-2 wijst dergelijke verzoeken af omdat ze conflicten kunnen verheerlijken, bepaalde stemmen kunnen marginaliseren, overmatig consumentisme kunnen bevorderen of sommige mensen kunnen beledigen om modegerelateerde redenen.

Vraag: Hebben ChatGPT en andere AI-generatiesystemen vergelijkbare beveiligingsproblemen?
Antwoord: Ja, Goody-2 demonstreert dat er ernstige beveiligingsproblemen zijn met grote taalmodellen en AI-generatiesystemen.

Vraag: Wie bepaalt wat verantwoordelijkheid betekent op het gebied van AI?
Antwoord: De beslissing over wat verantwoordelijkheid betekent in het veld van AI is onderwerp van debat. Er is geen duidelijke definitie.

Vraag: Zijn er andere AI-modellen die vergelijkbaar zijn met Goody-2?
Antwoord: Er zijn momenteel geen vergelijkbare AI-modellen bekend die dezelfde benadering als Goody-2 volgen.

The source of the article is from the blog myshopsguide.com

Web Story