OpenAI släpper ’Deepfake’-detektor
OpenAI, ett framstående AI-företag, deltar i ett branschöverskridande initiativ för att identifiera innehåll skapat med artificiell intelligens. Detta sker i ljuset av varningar om att AI-genererade bilder, ljud och videor kan påverka höstens val.
Ny verktyg för att upptäcka AI-genererade bilder
OpenAI har lanserat en ny detektor som kan identifiera 98,8 procent av bilder skapade av DALL-E 3, deras egen bildgenerator. Detta verktyg delas nu med en liten grupp desinformationsforskare för att testa det i verkliga situationer och bidra till vidareutveckling.
”Detta är för att kickstarta ny forskning,” säger Sandhini Agarwal, en forskare vid OpenAI med fokus på säkerhet och policy. Detektorn är dock inte designad för att upptäcka bilder skapade av andra populära generatorer som Midjourney och Stability.
Fler åtgärder för att bekämpa deepfakes
Eftersom detektorn arbetar med sannolikheter, kan den aldrig vara helt perfekt. Därför arbetar OpenAI, liksom många andra företag, ideella organisationer och akademiska laboratorier, med att bekämpa problemet på flera fronter.
Företaget går med i styrkommittén för Coalition for Content Provenance and Authenticity (C2PA), ett initiativ för att utveckla digitala innehållsbevis. C2PA-standarden fungerar som en slags ”näringsdeklaration” för digitala filer som visar när och hur de har producerats eller ändrats, inklusive med AI.
Vattenmärkning av AI-genererat innehåll
OpenAI utvecklar också metoder för att ”vattenmärka” AI-genererade ljud så att de enkelt kan identifieras i realtid. Dessa vattenmärken ska vara svåra att ta bort.
Ökad press på AI-industrin
Med stora företag som OpenAI, Google och Meta i spetsen, står AI-industrin inför ökande krav på att redogöra för innehållet som dess produkter skapar. Experter uppmanar industrin att förhindra att användare skapar vilseledande och skadligt material samt att erbjuda sätt att spåra ursprunget och spridningen av sådant innehåll.
Större efterfrågan på övervakning av AI-innehåll
I ett år fyllt med stora val världen över ökar efterfrågan på metoder för att övervaka AI-innehållens härkomst. Under de senaste månaderna har ljud och bilder redan påverkat politiska kampanjer och val i länder som Slovakien, Taiwan och Indien.
OpenAIs nya deepfake-detektor kan bidra till att minska problemet, men det är ingen universallösning. Som Sandhini Agarwal uttryckte det: ”Det finns ingen silverkula” i kampen mot deepfakes.
Kommentera: