Wybory w USA – rosnące zagrożenie deepfake i ataki AI na demokrację

Enligt nyliga händelser, inklusive AI-genererade djupfake-robokoppringningar, där President Biden uppmanade väljare från New Hampshire att avstå från att rösta, är det tydligt att illvilliga aktörer alltmer ser moderna AI-genereringsplattformar som kraftfulla verktyg för att rikta in sig på det amerikanska valet. Plattformar som ChatGPT, Gemini Google (tidigare känt som Bard) eller många andra språkmodeller i stor skala (LLM) från Dark Web kan spela en roll för att störa demokratiska processer genom attacker som involverar masspåverkanskampanjer, automatiserad nätmobbning och spridning av djupfake.

Padraic O’Reilly, chef för innovation på CyberSaint, anser att risken är ”signifikant” då denna teknik utvecklas snabbt. ”Det som är lovande är att det kommer att vara intressant och kanske lite oroande när vi ser nya varianter av desinformationskampanjer med djupfake” säger han.

Enligt O’Reilly är en ”mardrömsscenarie” spridningen av mikroriktad reklam med hjälp av AI-genererat innehåll på sociala medieplattformar. Denna taktik påminner om Cambridge Analytica-skandalen, där företaget samlade in data om psykologiska profiler för 230 miljoner amerikanska väljare för att leverera skräddarsydda budskap via Facebook till specifika individer för att påverka deras tro och val. Men användningen av GenAI skulle kunna automatisera denna process i stor skala och skapa övertygande innehåll som inte uppvisar ”bott-liknande” egenskaper.

O’Reilly förklarar att ”stulen riktad data [som innehåller användares personlighetsbilder och intressen], i kombination med AI-genererat innehåll, utgör en verklig risk.” ”Ryska desinformationskampanjer från 2013-2017 antyder vad annat som kan och kommer att hända, och vi har exempel på djupfake genererat av amerikanska medborgare [som involverar en] med Biden och Elizabeth Warren.”

Kombinationen av sociala medier och lättillgänglig djupfaketeknik skulle kunna vara ett domedagsvapen för att polarisera det amerikanska samhället, som redan är splittrat.

För att försvara sig mot dessa hot behöver valtjänstemän och kampanjer vara medvetna om farorna med GenAI och veta hur man försvarar sig mot dem. ”Valtjänstemän och kandidater ger ständigt intervjuer och presskonferenser, från vilka skurkar kan välja ljudklipp för att generera AI-baserad djupfake” säger James Turgal, vice vd för Cyber Risk på Optiv. ”Det bör därför finnas en individ eller ett team som ansvarar för innehållskontroll.”

Utöver detta behöver frivilliga och kampanjpersonal utbildas i farorna med AI, såsom ökat socialt ingenjörskap, motståndarens taktik och hur man ska reagera på misstänksam aktivitet. Deltagarna bör delta i utbildning om socialt ingenjörskap och djupfake relaterat till video, inklusive information om alla former av attacker, inklusive elektroniska (e-post, textmeddelanden och sociala medieplattformar), personliga och telefonsamtal.

”På lång sikt kommer regler som inkluderar märkning för ljud- och videodjupfakes att vara avgörande” säger O’Reilly och noterar att den federala regeringen samarbetar med LLM-ägare för att införa lämpliga skydd. Federal Communications Commission (FCC) har nyligen erkänt AI-genererade röstsamtal som ”artificiella” enligt Telecommunications Consumer Protection Act (TCPA), vilket gör användningen av röstklonningsteknik olaglig och ger statliga åklagare över hela landet nya verktyg för att bekämpa sådana bedrägliga aktiviteter.

”AI utvecklas så snabbt att det finns hot om att föreslagna regler kan bli ineffektiva när tekniken fortskrider och därmed potentiellt missa målet” säger O’Reilly. ”På många sätt är det Vilda Västern, och AI går in på marknaden med mycket få skyddsåtgärder.”

Viktiga slutsatser från artikeln och vanliga frågor (FAQ):

The source of the article is from the blog elblog.pl