Deepfakesning kiberxavfsizlik oqibatlari




Download 0.82 Mb.
Sana23.12.2023
Hajmi0.82 Mb.
#127515
Bog'liq
DEEPFAKE mustaqil ishi
Презентация Microsoft PowerPoint, OCHIK MANBALI RAZVEDKA

So'nggi yillarda deepfake texnologiyasining yuksalishi texnologiya ixlosmandlarining ham, kiberxavfsizlik bo'yicha mutaxassislarning ham e'tiborini tortdi. Deepfakes - bu giperrealistik, sun'iy intellekt tomonidan yaratilgan videolar, tasvirlar yoki audiolar bo'lib, ular kontentni kimdir hech qachon qilmagan narsani aytgani yoki qilgani kabi ko'rsatish uchun manipulyatsiya qiladi. Texnologiya o'yin-kulgi va marketing sohasida ijodiy imkoniyatlarni taqdim etsa-da, u kiberxavfsizlik uchun jiddiy tahdidlarni ham keltirib chiqaradi. Ushbu blogda biz deepfake texnologiyasining kiberxavfsizlikka ta'siri va undan zararli foydalanishdan himoya qilish strategiyalarini o'rganamiz.
Deepfakesning kiberxavfsizlik oqibatlari
Ijtimoiy muhandislik va fishing hujumlari: Kiberjinoyatchilar yuqori martabali amaldorlar yoki kompaniya rahbarlariga taqlid qilish, xodimlarni aldash, maxfiy ma'lumotlarni almashish yoki ruxsatsiz harakatlarni amalga oshirish uchun chuqur soxta audio yoki videolardan foydalanishi mumkin.
Obro‘ga putur yetkazish: Deepfakes soxta va zararli kontent yaratish, shaxs yoki tashkilotning obro‘siga putur yetkazish, yuridik va moliyaviy oqibatlarga olib kelishi uchun ishlatilishi mumkin.
Dezinformatsiya va soxta yangiliklar: Deepfakes soxta yangiliklar yoki siyosiy tashviqotlarni tarqatish orqali dezinformatsion kampaniyalarni kuchaytirishi mumkin, bu esa jamoatchilikni chalkashlik va ishonchsizlikka olib keladi.
Moliyaviy firibgarlik: Deepfake texnologiyasidan moliyaviy hisoblarga kirish yoki yolg‘on bahonalar ostida kredit olish kabi firibgarlik faoliyati uchun ishonchli soxta identifikatorlarni yaratish uchun foydalanish mumkin.
Dalillarni manipulyatsiya qilish: Huquqiy sohada chuqur soxta hujjatlar sud va tergovlarning yaxlitligiga putur etkazadigan soxta dalillarni yaratish uchun ishlatilishi mumkin.
Deepsoxta tahdidlarga qarshi himoya
Aniqlash texnologiyalarini takomillashtirish: Multimedia kontentidagi chuqur soxta narsalarni aniqlash uchun ilg‘or AIga asoslangan algoritmlarni ishlab chiqing va o‘rnating. Aniqlash imkoniyatlarini doimiy ravishda yaxshilash uchun texnologiya tadqiqotchilari va sanoat tengdoshlari bilan hamkorlik qiling.
Ta'lim va o'qitish: Xodimlar uchun soxta tahdidlar haqida xabardorlikni oshirish va kontentning haqiqiyligini tekshirishni o'rgatish uchun muntazam ravishda kiberxavfsizlik bo'yicha treninglar o'tkazing.
Ko'p faktorli autentifikatsiya (MFA): Deepfakes tomonidan osonlashtirilgan ijtimoiy muhandislik hujumlari xavfini kamaytirish uchun muhim tizimlar va aloqa kanallari uchun TIVni qo'llang.
Blokcheyn va raqamli suv belgilari: Multimedia kontentining haqiqiyligini tekshirish va uning kelib chiqishini kuzatish uchun blokcheyn va raqamli suv belgilaridan foydalaning.

Deepfake kriminalistikasi: Maxsus guruhlarni tuzing yoki deepfake kontentini tekshirish va aniqlashga ixtisoslashgan sud ekspertlari bilan hamkorlik qiling.
Ochiq manba vositalari: chuqur soxtalikni aniqlash va oldini olishga qaratilgan ochiq manba tashabbuslarini qo'llab-quvvatlang va ularga hissa qo'shing.
Media savodxonligi boʻyicha kampaniyalar: Ommaviy va manipulyatsiya qilingan kontentni farqlay olishlari uchun ommaviy axborot vositalari savodxonligini oshirish.

Deepfake texnologiyasi katta hajmdagi ma'lumotlarni tahlil qilish va sintez qilish uchun chuqur neyron tarmoqlar kabi ilg'or mashinani o'rganish algoritmlaridan foydalanadi. Keyinchalik bu algoritmlar shaxslar, ko'pincha mashhurlar yoki jamoat arboblarining ishonchli nusxalarini qayta yaratadi va juda aldamchi kontent yaratish uchun ularning yuz ifodalari, nutqlari yoki imo-ishoralarini boshqaradi. Texnologiya rivojlanib borar ekan, deepfakes yanada murakkablashdi va bu ularni yalang'och ko'z bilan aniqlashni qiyinlashtirmoqda.


Deepfake (Deepfake) aslida haqiqiy bo'lmagan, soxta, ya'ni soxta bo'lmagan foto, video yoki audio materialdir. Deepfake (ikkita soʻz birikmasi – chuqur oʻrganish “chuqur oʻrganish” va soxta “soxta”) video va boshqa raqamli media materiallarida bir odamning boshqasiga oʻxshashligini yaratish uchun chuqur oʻrganish uchun sunʼiy intellektdan (AI) foydalanadi. U bir-biriga tikilgan haqiqiy ovoz, ovoz, video yoki fotosurat namunalariga asoslangan algoritmlar tomonidan yaratilgan. Algoritm ko'plab turli joylardan tanlangan ma'lumotni oladi va keyin ularni bitta materialga birlashtiradi. Natijada, turli xil haqiqiy ma'lumotlarning kombinatsiyasiga asoslangan yangi (yolg'on) narsa yaratiladi. Lekin bu hammasi emas. Deepfake shuningdek, fotosuratni noldan boshlab, masalan, hech qachon mavjud bo'lmagan personajlarning yuzlarini yaratish orqali "bo'yash" mumkin.
Bunday harakatlardan maqsad nima? Boshqa narsalar qatorida, Deepfake Internetda noto'g'ri ma'lumotlarni tarqatish (masalan, siyosiy arboblar yoki voqealar haqida), o'g'irlik (masalan, ovozli buyruqlarni soxtalashtirish) va pornografiya (mashhurlar ishtirokidagi filmlar - deepfake porno) yaratish uchun ishlatiladi. Bundan ta'lim va ko'ngilochar maqsadlarda ham foydalanish mumkin.
Umuman olganda, deepfake materialini yaratishning ikki yo'li mavjud. Birinchi usul ikkita algoritmdan foydalanadi. Birinchidan, birinchi (koder) ikkita tasvirning umumiy xususiyatlarini qidiradi (birga birlashtiriladi), keyin ikkinchi (dekoder) ularni yangi yaratilgan tasvirga o'tkazishi mumkin. Misol uchun, agar biz aktyor biz kabi harakat qiladigan video yaratmoqchi bo'lsak, kodlovchi biz raqsga tushayotgan videodan harakatni oladi va dekoder allaqachon bizning yuzimizni aktyorning yuzi bilan almashtiradi va u bizning harakatlarimizni takrorlaydi. Bu erda kalit yangi tasvirga ko'chiriladigan tanlangan harakatlardir (masalan, harakatlar, imo-ishoralar, yuz ifodalari).
kkinchi yo'l - ikkita algoritm birgalikda ishlaydigan generativ raqib tarmoqlari (GAN) orqali. Birinchisi generator deb ataladi, chunki umumiy ma'lumotlardan foydalanib, u o'zining ajralib turadigan xususiyatlarini (insonning tanasi, yuzi, ko'zlari) birlashtirgan tasvirlarni (masalan, odamning tasvirini) yaratadi. Ikkinchi algoritm generator tomonidan berilgan tasvirlarning haqiqat yoki noto'g'riligini baholaydigan diskriminatordir.
Vaqt o'tishi bilan ikkala algoritm ham ilg'or bo'ladi, shuning uchun ular o'zlarini o'rganadilar va yaxshilaydilar. Agar generator diskriminator soxta fotosuratni tanimaydigan tarzda o'qitilgan bo'lsa (uni haqiqiy deb hisoblasa), jarayon tugallangan hisoblanadi.
Katta miqdordagi soxta dasturiy ta'minotni skriptlar, dasturlar va kodlar uchun ochiq kodli GitHub hamjamiyatida topish mumkin. Ushbu dasturlarning ba'zilari faqat ko'ngilochar maqsadlarda ishlatiladi, shuning uchun deepfake yaratish taqiqlangan emas, ammo ularning ko'pchiligi jinoiy maqsadlarda ham ishlatilishi mumkin.
Ko'pgina ekspertlarning fikriga ko'ra, kelajakda texnologiyalar rivojlanishi bilan deepfakes ancha murakkablashadi va saylovlarga aralashish, siyosiy keskinlik va jinoiy harakatlar bilan bog'liq jamiyat uchun jiddiyroq tahdidlarni keltirib chiqarishi mumkin.
Bunday soxta ma'lumotlar birinchi marta 2017 yilda paydo bo'lgan. Keyin foydalanuvchi taxallusdir deepfake Reddit-da mashhur shaxslar ishtirok etgan bir nechta pornografik filmlar nashr etilgan Skarlett Yoxansson, Gal Gadot va Teylor Svift. O'shandan beri bu sanoat jadal rivojlanmoqda, chunki deyarli har bir kishi deepfake filmlarini suratga olishi mumkin.
So'nggi yillarda "deepfaking" texnologiyasi shu qadar rivojlandiki, hozirda u uydirma videomi yoki haqiqiy odamlarning yozuvi ekanligini aniqlash tobora qiyinlashmoqda. Misol tariqasida ko'plab turli saytlarda tez chop etilgan Yelizaveta II ning xabari yoki Barak Obamaning nutqi aks etgan videoni keltirish mumkin. AQSh sobiq prezidentining bayonoti aks ettirilgan videoda internetda chop etilgan noto‘g‘ri ma’lumotlar va soxta xabarlar sabab bo‘lishi mumkin bo‘lgan global tahdidlar haqida so‘z boradi. BuzzFeedVideos kanali tomonidan chop etilgan materialda amerikalik rejissyor va aktyor Jordan Pile AQShning 44-prezidentining ovoziga aylandi. Biroq, hozirda sun'iy intellekt soxta filmda paydo bo'lishi kerak bo'lgan shaxsning arxiv yozuvlari asosida ovozni yaratishga qodir.

Bunday ilg‘or texnologiyalar kelajakda kiberjinoyatchilar va internet firibgarlari qo‘lida xavfli vositaga aylanishi mumkin. Muhim siyosatchilarning chiqishlari aks etgan soxta videolarning e’lon qilinishi xalqaro miqyosda haqiqiy zarar keltirishi mumkin. Deepfake texnologiyasiga asoslangan bunday filmlar diplomatik mojarolar va janjallarni keltirib chiqarishi, shu sababli jamoatchilik fikri va odamlarning xatti-harakatlariga ta'sir qilishi mumkin.
Yana bir potentsial tahdid bu kattalar uchun kontent bo'lib, u har doim virtual makonda eng ko'p trafikni yaratgan. Deepfake texnologiyasi Internetga juda tez kirib kelgani ajablanarli emas. Gollandiyaning Deeptrace kiberxavfsizlik kompaniyasi hisobotiga ko'ra, deepfake texnologiyasidan foydalangan holda yaratilgan uydirma videolarning 96 foizi ana shunday mavzulardagi kontentdir. Ko'pincha bunday materiallarni ishlab chiqarish uchun kino yulduzlari, sportchilar, hatto siyosatchilar va hukumat vakillarining suratlari qo'llaniladi.
Agar kimdir deepfake videolar qila olsa, ularni uyda ham qilish mumkinmi? Albatta, ha, lekin ularning sifati, albatta, mukammal bo'lmaydi. Bunday videolarni yaratish katta hisoblash resurslari va kuchli video kartalarni talab qiladi. Odatda uy kompyuterlarida mavjud bo'lganlar etarli emas va rivojlanish jarayonining o'zi bir necha hafta davom etishi mumkin. Filmlarning sifati ham ko'p narsani orzu qiladi - ko'rinadigan xatolar bo'ladi, og'iz harakati tovushga mos kelmasligi mumkin, "eski" tarkib "yangi" bilan bir-biriga mos keladigan ko'rinadigan joylar bo'ladi.
Ammo, agar biz fotosuratni biroz "tegish" yoki qisqa videoni yaratmoqchi bo'lsak, buning uchun dasturni to'g'ridan-to'g'ri smartfonga yuklab olish mumkin. Foydalanish uchun juda oson dastur bir necha daqiqada tashqi ko'rinishdagi kamchiliklarni bartaraf qiladi, sizni tanlangan mashhur odamga aylantiradi yoki itingizga inson ovozi bilan gapirish imkonini beradi.
Professional deepfake videolarini aniqlash tobora qiyinlashmoqda. Dastlab, algoritmlarda asosiy xatti-harakatlar (masalan, ko'zni miltillash) bilan bog'liq muammolar mavjud edi va filmning soxta ekanligi darhol ma'lum bo'ldi. Bu xato endi tuzatildi. Soxta belgilar miltillaydi, tabiiy ravishda harakat qiladi va ravon gapiradi. Biroq, ba'zida ular hali ham tabiiy ko'z harakati bilan bog'liq muammolarga duch kelishadi.

Deepfakes "chuqur o'rganish" portmantosi va "soxta" sintetik media bo'lib, ular bir odamning o'xshashligini ishonchli tarzda boshqasiga almashtirish uchun raqamli manipulyatsiya qilingan. Deepfakes - bu chuqur generativ usullar orqali yuz ko'rinishini manipulyatsiya qilish. Soxta kontent yaratish harakati yangi boʻlmasa-da, deepfakes oson aldashi mumkin boʻlgan vizual va audio kontentni manipulyatsiya qilish yoki yaratish uchun mashina oʻrganish va sunʼiy intellektning kuchli usullaridan foydalanadi. Deepfakes yaratish uchun ishlatiladigan asosiy mashinani o'rganish usullari chuqur o'rganishga asoslangan va avtokoderlar yoki generativ raqib tarmoqlari kabi generativ neyron tarmoqlari arxitekturasini o'rgatishdan iborat. O'z navbatida, rasm kriminalistikasi sohasi manipulyatsiya qilingan tasvirlarni aniqlash usullarini ishlab chiqadi.
Deepfakes bolalarga nisbatan jinsiy zo'ravonlik materiallari, mashhur pornografik videolar, qasos pornosi, soxta yangiliklar, aldashlar, bezorilik va moliyaviy firibgarliklarni yaratishda potentsial foydalanish uchun keng e'tiborni tortdi. Deepfakes orqali dezinformatsiya va nafrat so'zlarini tarqatish, odamlarning ularga ta'sir qiluvchi qarorlar qabul qilishda ishtirok etish, jamoaviy kun tartibini belgilash va ongli qarorlar qabul qilish orqali siyosiy irodasini ifodalash qobiliyatiga xalaqit berib, demokratik tizimlarning asosiy funktsiyalari va me'yorlariga putur etkazishi mumkin. Bu sanoat va hukumatdan ulardan foydalanishni aniqlash va cheklash uchun javoblarni keltirib chiqardi. Fotomanipulyatsiya 19-asrda ishlab chiqilgan va tez orada kinofilmlarda qo'llanilgan. 20-asrda texnologiya doimiy ravishda takomillashtirildi va raqamli videoning paydo bo'lishi bilan tezroq.
Deepfake texnologiyasi 1990-yillardan boshlab akademik muassasalar tadqiqotchilari, keyinroq esa onlayn hamjamiyatlarda havaskorlar tomonidan ishlab chiqilgan. Yaqinda usullar sanoat tomonidan qabul qilindi. Deepfakes bilan bog'liq akademik tadqiqotlar kompyuter fanining kichik sohasi bo'lgan kompyuterni ko'rish sohasi bo'lib, u deepfakelarni yaratish va aniqlash usullarini ishlab chiqadi va uning ijtimoiy, axloqiy va estetik oqibatlarini o'rganadigan gumanitar va ijtimoiy fanlar yondashuvlari. deepfakes.
Xo'sh, deepfakeni qanday aniqlash mumkin? Videoni tomosha qilishda nimalarga e'tibor berishingiz kerak:
Ovoz og'iz harakatlariga mos keladimi? Ba'zan ular bir-biriga to'liq mos kelmaydi va videodagi odam lablarini tovushga nisbatan kechikish bilan qimirlatadi yoki so'zlarni noto'g'ri ifodalaydi.
G'ayritabiiy ko'rinadigan barcha turdagi hodisalar. Bu erda, boshqa narsalar qatorida, butun tananing yoki boshning tanasiga nisbatan holati, ob'ektlarga yorug'likning noto'g'ri aks etishi, zargarlik buyumlarida yorug'likning noto'g'ri aks etishi va boshqalar haqida gapiramiz. Terining g'ayritabiiy rangi ham filmning soxta ekanligini ko'rsatishi mumkin.
Audio va video sifati. Ularning orasidagi farq chuqur soxtalikni aniqlashga yordam beradi. Odatda saundtrek sifatsizroq bo'ladi.
Tasvirning tartibsizliklari. Ko'pincha ular tananing va boshning birlashmasida paydo bo'ladi. Mashhurning boshi boshqa tanaga "yopishgan" bo'lsa, bo'yin hududida loyqalik paydo bo'lishi mumkin. Ba'zan ramkani o'tkazib yuborish (interval) va ramka xatolar (turli xil yorug'lik burchagi, turi yoki yo'nalishi) mavjud.
Video davomida xeshtegni o'zgartirish bizda deepfake video borligini ham anglatishi mumkin.
Materiallarni deepfake nuqtai nazaridan ko'rib chiqishda, shuningdek, o'z his-tuyg'ularingizga tayanishga arziydi. Ba'zan bizda nimadir "noto'g'ri" degan taassurot paydo bo'ladi. Bu, boshqa narsalar qatori, ekranda tasvirlangan odamning his-tuyg'ulari yuz ifodasi yoki ovoz ohangi bizga mos kelmasa sodir bo'ladi. Bu ham video soxta bo'lishi mumkinligini ko'rsatadi.
Chuqur soxta firibgarlikning oldini olish uchun mutaxassislar quyidagi bosqichlarni bajarishni maslahat berishadi:
Video yoki yozuv bilan vaziyatning haqiqatini isbotlaydigan oila a'zolari yoki hamkasblari kabi yaqinlaringiz bilan maxfiy so'z yoki shior yarating. Bu sizga vaziyatning noto'g'riligini tezda tekshirish va, masalan, pul undirishdan qochish imkonini beradi.
Qarindoshlaringiz yoki hamkasblaringiz bilan xabarlar, masalan, ijtimoiy tarmoqlar yoki SMS orqali hech qachon so'ralmaydigan ma'lumotlar ro'yxatiga rozi bo'ling. Barcha manfaatdor tomonlar xavfning haqiqiy darajasi to'g'risida xabardor bo'lishlari shart.
Har bir so'rovni tekshirish uchun ko'p faktorli autentifikatsiya kanallarini joriy etish. Agar muloqot matnli xabar bilan boshlangan bo'lsa, u holda ma'lumotni tasdiqlashning eng xavfsiz usuli xabarni jo'natuvchi bilan oldindan kelishilgan va xavfsiz aloqa kanali orqali suhbat shaklida bog'lanishdir.
Xavfsizlik malakasini doimiy ravishda takomillashtirish, masalan, xavfsizlik va kiberjinoyatchilik bo'yicha xodimlarni o'qitish shaklida. Deepfake nima ekanligi va bu tahdidga qanday qarshi turish haqida xabardorlikni oshirish.
Axborot-kommunikatsiya texnologiyalari (AKT) muhitida xavfsizlik tizimlarini qo'llab-quvvatlash va rivojlantirish.
Deepfake texnologiyasi kuchli va rivojlanayotgan kiberxavfsizlik muammosini taqdim etadi, ammo uni engib bo'lmaydi. Hushyor bo'lish, ilg'or aniqlash texnologiyalariga sarmoya kiritish va hamkorlikdagi sa'y-harakatlarni rag'batlantirish orqali biz chuqur soxta tahdidlarga qarshi samarali himoya vositalarini ishlab chiqa olamiz. Texnologiya taraqqiyotda davom etar ekan, tashkilotlar va shaxslar uchun kiberxavfsizlikni birinchi o'ringa qo'yishi va paydo bo'ladigan xavf-xatarlarga chidamli bo'lib qolishi juda muhimdir. CyberNX da biz tashkilotingizni so'nggi kiberxavfsizlik tahdidlaridan, jumladan, deepfake texnologiyasidan himoya qilishga intilamiz. Raqamli aktivlaringiz va obro'ingizni himoya qilish uchun ekspert maslahati va moslashtirilgan yechimlar uchun bugun biz bilan bog'laning. Birgalikda biz kiberbardoshli kelajakni qurishimiz mumkin.

Download 0.82 Mb.




Download 0.82 Mb.

Bosh sahifa
Aloqalar

    Bosh sahifa



Deepfakesning kiberxavfsizlik oqibatlari

Download 0.82 Mb.