• Şehir Alanya
  • Türkiye’deki çalışanların sadece %21’i bir deepfake’i gerçek imajdan ayırabiliyor
1 okunma

Türkiye’deki çalışanların sadece %21’i bir deepfake’i gerçek imajdan ayırabiliyor

ABONE OL
11 Ocak 2024 10:03
0

BEĞENDİM

ABONE OL
Resim

Kaspersky Business Digitization anketine nazaran Türkiye’deki çalışanların %43’’ü bir deepfake’i gerçek imajdan ayırt edebileceklerini söyledi. Lakin yapılan testte sadece %21’i gerçek bir manzarayı yapay zeka tarafından oluşturulan bir imajdan ayırt edebildi. Bu da kuruluşların bu çeşit dolandırıcılıklara karşı savunmasız olduğu ve siber hatalıların yasa dışı faaliyetler için çeşitli biçimlerde yapay zeka imgelerini kullanabileceği manasına geliyor. Deepfake, bireyleri yahut kuruluşları dolandırmak için düzmece görüntüler yahut imajlar oluşturmak maksadıyla kullanılıyor.

Örneğin, siber hatalılar bir CEO’nun banka havalesi talep ettiği yahut bir ödemeye onay verdiği düzmece bir görüntü oluşturabilir ve bu görüntü şirket fonlarını çalmak için kullanılabilir. Bireylerden para ya da bilgi sızdırmak için kullanılabilecek görüntüler ya da manzaralar de oluşturulabilir. Siber hatalılar ayrıyeten yanlış bilgi yaymak yahut kamuoyunu manipüle etmek için deepfake’leri kullanabilir. Türkiye’deki çalışanların %39’u şirketlerinin deepfake yüzünden para kaybedebileceğine inanıyor.

Elon Musk’ın yeni bir kripto para dolandırıcılığını anlattığı bir deepfake örneği

Kaspersky Kıdemli Data Bilimcisi Dmitry Anikin, şunları söylüyor: “Birçok çalışan bir deepfake’i tespit edebileceğini sav etse de, araştırmamız yalnızca yarısının bunu sahiden yapabildiğini gösterdi. Kullanıcıların dijital marifetlerini abartması epeyce yaygın rastlanılan bir durum. Kuruluşlar için bu, beşere dayalı güvenlikte açıklar ve potansiyel siber riskler manasına geliyor. Dark web kaynaklarının daima izlenmesi, deepfake sanayisi hakkında kıymetli bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son trendlerini ve faaliyetlerini takip etmesine imkan tanıyor. Bu izleme, gelişen tehdit ortamına ait anlayışımızı geliştirmemize yardımcı olan deepfake araştırmasının kritik bir bileşenini oluşturuyor. Kaspersky’nin Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler kelam konusu olduğunda önlemli olmalarına yardımcı olmak için bu tıp bir izleme içeriyor.”

Kaspersky, deepfake’lerle ilgili tehditlerden korunmak için şunları öneriyor:

  • Kuruluşunuzdaki siber güvenlik uygulamalarını denetim edin. Sırf yazılım biçimini değil, gelişmiş BT hünerlerini de buna dahil edin. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın.
  • Kurumsal “insan güvenlik duvarınızı” güçlendirin. Çalışanların deepfake’lerin ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anladığından emin olun. Çalışanların bir deepfake’i nasıl tespit edeceklerini öğretmek için daima farkındalık ve eğitim çalışmaları düzenleyin. Kaspersky Automated Security Awareness Platform, çalışanların en son tehditler konusunda şimdiki kalmasına yardımcı olur ve dijital okuryazarlık düzeylerini artırır.
  • Güvenilir haber kaynaklarını referans alın. Bilgi okuryazarlığı, deepfake’lerin yaygınlaşmasını önleyecek en değerli ögedir.
  • ‘Güven lakin doğrula’ üzere protokolleri benimseyin. Sesli iletilere ve görüntülere kuşkuyla yaklaşmak insanların asla kandırılmayacağını garanti etmez, lakin yaygın tuzakların birçoklarından kaçınmaya yardımcı olabilir.
  • Bu cins bir taarruzun kurbanı olmamak için deepfake görüntülerin dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareketler, bir kareden başkasına geçerken ışık kaymaları, cilt tonunda değişimler, garip bir halde göz kırpma yahut hiç göz kırpmama, dudakların konuşmayla senkronize olmayışı, manzaradaki dijital kirlilikler, görüntünün kasıtlı olarak düşük kalitede kodlanmış ve zayıf aydınlatmaya sahip oluşu deepfake belirtisi olabilir.

En az 10 karakter gerekli


HIZLI YORUM YAP

300x250r
300x250r

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.