Predstav si, že ti príde hlasová správa: „Mami, prosím ťa, som v problémoch… pošli peniaze hneď, je to urgentné.“
Hlas sedí. Intonácia sedí. Emócia sedí. A ty máš v hlave jediné: musím pomôcť.
Lenže presne na tom deepfake podvody stoja – na skratke cez emócie a dôveru.
Európska parlamentná výskumná služba (EPRS) varuje, že vďaka generatívnej AI vedia podvodníci replikovať hlasy, robiť deepfake videohovory a vytvárať falošné identity. Tieto útoky eskalujú rýchlo a ohrozujú jednotlivcov aj firmy.
Čo je deepfake podvod (bez technického žargónu)
Deepfake je falošné audio, video alebo obraz, ktoré vyzerá alebo znie ako skutočný človek. Kým kedysi stačil „fejkový email od šéfa“, dnes dokážu útočníci vyrobiť aj:
- – Klonovaný hlas (voice cloning) šéfa, kolegu, partnera či dieťaťa.
- – Videohovor s „manažmentom“.
- – „Autentické“ video celebrít, ktoré „odporúčajú investíciu“.
Problém je, že s generatívnou AI sa táto „výroba dôvery“ extrémne zjednodušila a zrýchlila.
Prečo to teraz explodovalo?
- Lebo máme na internete vlastné hlasy: Až 53 % ľudí zdieľa svoj hlas online (sociálne siete, videá), čo EPRS označuje za riziko – kriminálnici ho vedia relatívne ľahko ukradnúť a replikovať.
- Lebo podvod sa dá škálovať: AI znižuje čas a námahu potrebnú na oklamanie obete. FBI varuje, že generatívna AI zvyšuje presvedčivosť schém a uľahčuje podvody „vo veľkom“.
- Lebo hlas je najťažší na overenie: Klonovanie hlasu je podľa expertov najpresvedčivejší a najťažšie detekovateľný typ útoku, ktorý mení pravidlá sociálneho inžinierstva.
Tvrdé čísla: Správa o podvodoch s identitou (Entrust) uvádza, že v roku 2024 nastal deepfake útok každých 5 minút. Podľa EPRS takmer polovica (49 %) firiem vo vybraných krajinách priznala skúsenosť s audio/video podvodom.
Najznámejšie prípady: Už nejde o „meme“, ale o milióny
Deepfake videohovor za 25 miliónov dolárov
V Hongkongu sa stal jeden z najznámejších prípadov (firma Arup): zamestnanec finančného oddelenia poslal peniaze po tom, ako sa zúčastnil videohovoru, kde boli prítomní jeho nadriadení – vrátane finančného riaditeľa. Neskôr sa ukázalo, že všetci okrem neho boli deepfake.
Dôležité: Zamestnanec neklikol na vírus. Nehackli systém. Išlo o čisté sociálne inžinierstvo – oklamali človeka cez dôveru.
Keď cieľom nie sú peniaze, ale informácie
Agentúra Reuters popísala kampaň, kde podvodník používal AI‑generované hlasové správy, aby sa vydával za amerického politika Marca Rubia. Cieľom boli zahraniční diplomati. Tu nešlo o peniaze, ale o prístup k citlivým informáciám a kontaktom.
🚩 5 červených vlajok (Kedy zbystriť pozornosť)
Než začnete riešiť, či je hlas „trochu robotický“, všímajte si kontext. Toto sú najčastejšie signály podvodu:
- Nové číslo + známy hlas: „Mami, stratil som mobil, volám z požičaného.“
- Extrémna urgentnosť: „Musíš to poslať hneď teraz, inak…“ (Cieľom je vypnúť vaše kritické myslenie).
- Žiadosť o utajenie: „Nevolaj ockovi/šéfovi, nechcem ho vystrašiť.“
- Zmena účtu na poslednú chvíľu: „Pošli to na tento iný IBAN.“
- Obchádzanie interných procesov: „Kašli na schvaľovanie, ja to potom podpíšem, len to pošli.“
Ako sa môžete chrániť: Pravidlá, ktoré reálne fungujú
Pre rodinu a jednotlivcov:
- Zaveste a zavolajte späť: Ak volá „dieťa“ z cudzieho čísla, zavolajte mu na jeho staré, uložené číslo.
- Ignorujte urgentnosť: Podvodníci vás tlačia do kúta, aby ste nemali čas rozmýšľať.
- Nikdy neposielajte heslá: Deepfake je často len kľúč k vašim účtom.
- Overujte cez druhý kanál: Ak príde správa, zavolajte. Ak príde hovor, napíšte SMS.
Pre firmy:
- Pravidlo „štyroch očí“: Žiadny prevod nad určitú sumu bez schválenia druhou osobou.
- Callback protokol: Každý neštandardný platobný pokyn sa overuje spätným volaním na interné číslo.
- Hlas nie je dôkaz: V roku 2025 už hlasová správa nestačí na overenie identity.
- Tréning proti sociálnemu inžinierstvu: Zamestnanci musia vedieť, že útok môže prísť aj ako telefonát od „kolegu“.
Prečo je „hľadať chyby vo videu“ slabá obrana
Áno, niekedy si všimnete divné pohyby pier alebo čudné svetlo. Ale technická detekcia má limity a vývoj AI je vždy o krok vpredu.
Najlepšia obrana preto nie je odhadovať, či je to fake, ale mať postup, ktorý funguje, aj keby to fake bolo.
Bude to horšie? Áno. (A zákony nás úplne nespasia)
Európska únia cez AI Act zavádza povinnosť označovať AI‑generovaný obsah (napr. vodoznakmi). To je užitočné pri médiách a reklame.
Ale pozor: Kriminálnici zákony nedodržiavajú. Podvodník vám do telefónu nepovie: „Pozor, tento hovor je generovaný umelou inteligenciou.“ Preto ostáva osobná ostražitosť kľúčová.
Zhrnutie na záver
Deepfake podvody nefungujú preto, že sú technicky dokonalé. Fungujú preto, že sú psychologicky presné. Vytvoria tlak a dojem autority.
Ak si máš odniesť jedinú vec, tak túto: Hlas ani video už nie sú dôkaz. Dôkaz je až overenie mimo pôvodného kanála.




















