Populære Innlegg

Redaksjonens - 2024

Tro ikke på noen: Hva truer det nevrale nettverket, gjør porno

Dmitry Kurkin

Falske pornofilmerder stjernen av filmen "Wonder Woman" Gal Gadot angivelig hadde sex med sin styrebror, som dukket opp på nettet denne uka, viste seg å være ikke bare en falsk, men en falsk generert av kunstig intelligens.

Forfatteren av videoen, en anonym bruker av reddit med kallenavnet deepfakes, i et intervju med Vice, bekreftet at han brukte det neurale nettverket for å "ta et bilde" av Gadots ansikt til pornoaktrisens kropp. Den falske er generelt merkbar, og deepfakes hadde ikke tenkt å tjene penger på det - han sa at han bare ville sjekke hvor lett det ville være å gjøre det ved å bruke AI. Og han har dårlige nyheter for oss: det var veldig enkelt å lage falsk porno hjemme.

Problemet er generelt ikke i pornofeaks selv: etterspørselen etter bilder og videoer, hvor kjendiser-lignende skuespillere og skuespillerinner har sex, var, vil og vil være hos fetisjene og sensasjonelle elskere. På den eksterne likheten med stjernene i pornoindustrien blir det gjort hele karriere - dette fenomenet ga til og med en fremragende overskrift av den gule pressen: "Gordon Ramsay dvergpornodverv oppdaget død i et badgerhull".

Men hvis før produksjonen trengte tid, ressurser og litt form for ferdighet, så vil et neuralt nettverk, opplært til å sveise ansikter til et bilde, forenkle oppgaven. Roboter stikker inn, ikke en mann, og roboter blir smartere fra tid til annen, noe som betyr at fakes vil se mer og mer pålitelig ut. Deepfakes-brukeren klargjorde at han samlet sin AI-programvare fra skrapelementene som finnes i open source-bibliotekene, og tok bilder og videoer i offentlige avløp og hosting som YouTube. Enkelt sagt lå alle verktøyene for å generere pornofeikov under nesen, ikke bare med ham, men blant millioner av mennesker rundt om i verden.

Og dette, strengt tatt, ikke engang nyheter. Tilbake i 2003 advarte eksperter fra University of Oregon Helse og Vitenskap at lyd frauds er "lett å lage og vanskelig å bestemme." I 2017 ble prognosen oppfylt, og det var falske stemmeopptak generert av nevrale nettverk som er svært vanskelig å skille fra virkelige. Etter lyden ble videoen trukket opp. Utviklingen av personalet ved University of Washington synkroniserer ansiktsuttrykkene til ansiktet til ansiktet med sin tale: i videoklippet med Barack Obama lagt ut for eksempel, er bare lyd tilstede, bildet genereres av programmet. Koble den ene til den andre - og nå er det klare falske videoer der en velkjent liberal politiker "bekjenner" sin sympati for Hitler.

Det tar litt fantasi å forestille seg hvordan misbruk slik kunstig intelligens kan føre til - chatbots fra Microsoft, som Twitter-trollene har blitt racistiske på mindre enn en dag, virker som en pen prank mot dem. Og selvfølgelig er teknologien for pornofeed ikke primært truet av Gal Gadot, Taylor Swift eller Jennifer Lawrence. De er tilstrekkelig sikret for å ansette en hær av IT-spesialister som anerkjenner en falsk og en flåte advokater som vil stevne enhver som forsøker å bruke disse falskene for personlig gevinst.

Nei, enkle dødelige blir offer for nye harmløse algoritmer. Digitale forfalskninger kan brukes til pornografi, cyberstalking, nettverkschikring, utpressing og manipulering av folk som er lette å antyde og ikke spesielt følge nyheter fra feltet av avansert teknologi. "Datteren din var videoopptatt, overfør penger raskt, ellers vil alt se ham"). Og vi snakker ikke nødvendigvis om porno: Fakes kan også bli lansert i nettverket for politisk propaganda og oppfordring til hat.

"Men dette er monstrøst!" Ja, det er uhyggelig, og coder deepfakes er ikke skylden for dette. Som hackere bryter ofte inn i banksystemer for ikke å stjele penger, men for å peke cyberforsvarsdepartementet i sikkerhetshull, så ble det oppfunnet av anonyme AI-programmerer bare setter oss foran et faktum: epoken med digitale forfalskninger er ikke en antiutopisk skrekkhistorie "Black Mirror", og den kommende virkeligheten. Den har ennå ikke blitt forstått av moderne etikk (kan pornofiler betraktes som en invasjon av privatlivets fred for andre?), Heller ikke i henhold til loven. Men det er i henne at vi på en eller annen måte må leve i de kommende årene. Så det er nødvendig å utvikle en motgift mot slike fyllinger.

Collins ordbok kuratorer kalt begrepet "falske nyheter" uttrykket av 2017, og understreker at den gjennomsnittlige brukeren er avhengig av clickbate og repost sensasjonelle overskrifter uten å kaste bort tid for å verifisere ektheten av informasjonen. I mellomtiden kan falske nyheter påvirke resultatet av valg og folkeavstemninger. Og dette er også en del av den nye virkeligheten der vi allerede eksisterer, og hvor vi må lære å være mindre lidenskapelig.

Sosiale nettverk har allerede gjort Internett et glassvegget hjem hvor millioner av mennesker kan se livet ditt hver dag - selv når du ikke vil ha det. Nå er det åpenbart at det ikke er noen dør i dette huset: alle kan prøve å invadere din personlige plass ved å bruke AI til å skru ansiktet på pornorolen eller filmen "Ringenes Herre." Personvern er død, men ikke bare Big Brother er skyldig i dette i form av spesialtjenester og globale selskaper, men også oss selv.

Verden av digitale fakes kommer, men dette er ikke en grunn til panikk, paranoia, nektet å bruke Internett eller kravene til å forbye nevrale nettverk. Dette er en grunn til å tenke på nettverkshygiene og ny etikk, der det blir løst en gang for alle at å bruke andres bilde til å lage en digital falsk, er ulykkelig og ulovlig. Tider da folk betingelsesløst trodde alt de sier på TV (selv om de sier at "Lenin var en sopp") fading unna. På samme måte bruker vi gradvis oss til å ikke tro på alt som er skrevet på Internett.

Cover:Warp-poster

Legg Igjen Din Kommentar