Ebba Busch används i bedrägeri – håll utkik efter detta
2024 09 01
Bedragare använder nu Ebba Busch (KD) för att försöka lura folk på pengar.
Bedragare blir som bekant allt bättre på att hitta olika tillvägagångssätt för att lura människor.
Artificiell intelligens gör att man kan göra det på avancerade sätt.
Nu använder bedragare Ebba Busch för att försöka lura folk på sociala medier.
Det rapporterar Svenska Dagbladet.
Håll utkik
I bedrägeriförsöket syns en AI-genererad video där Ebba Busch pratar om ett regeringsprojekt där svenskarna ska få investera i naturgas.
På så sätt ska man kunna tjäna pengar riskfritt och enkelt.
Videon är alltså inte riktig och det handlar om bedrägeri.
En av många
Ebba Busch är en av många kändisar som används för att lura folk.
– Det finns många videor och röstprover på kändisar, då är det lättare att göra en deepfake, säger Björn Appelgren, projektledare på Internetstiftelsen, till SvD.
– När tekniken blir bättre tror jag att det kommer ta sig in i en mer privat sfär, där bedragare kan använda röst eller video på personer man känner.
Det är deepfake
Det kan vara svårt att känna igen vad som är på riktigt och vad som är fake på internet.
Sajten Säkerhetskollen förklarar.
– Begreppet deepfake kommer från en sammanslagning av två engelska ord, deep machine learning och fake, och syftar till att beskriva när man med hjälp av teknik skapar manipulerade videor, ljudklipp eller bilder som ser ut som att vara autentiska.
– Det är viktigt att förhålla sig källkritisk till det vi möts av i vår vardag och våra flöden. Bedragare utnyttjar ny teknik och sätt att kommunicera, och finns närvarande i de kanaler vi rör oss i – och AI är inget undantag.
Håll koll
Det tydligaste exemplet på att det rör sig om en deepfake-video kan vara onaturliga rörelser i ansiktet och kroppen som man kan undersöka närmare.
Hår, tänder, händer och ögon kan ofta se lite märkliga ut i de fejkade filmklippen.
– Även röster kan kopieras med hjälp av deepfake-appar eller program, exempelvis en så kallad deepfake voice generator, fortsätter Säkerhetskollen.
– Det fungerar på samma sätt som bild- och videobaserade deepfakes där AI:n istället tar in och analyserar ljudfiler av en persons röst.
Foto: N. Andersson Regeringskansliet
Text: Redaktionen