Son yıllarda yapay zeka (AI) ve makine öğrenimi teknolojilerinin yaygın biçimde benimsenmesi, tehdit aktörlerine saldırılarını başlatabilecekleri gelişmiş yeni araçlar sağlıyor.
Bunlardan biri, doğal insan benzeri konuşmalar veya gerçek kişilerin fotoğraf ve videolarının kopyalarını içeren deepfake'lerdir. Bu saldırıları oluşturmak için harcanan zaman ve çaba çoğu zaman potansiyel “ödüllerinden daha fazla” olsa da Kaspersky, şirketlerin ve tüketicilerin deepfake'lerin gelecekte giderek daha fazla endişe kaynağı haline geleceğinin farkında olması gerektiği konusunda uyarıyor.
Kaspersky araştırması, deepfake oluşturmaya yönelik araç ve hizmetlerin darknet pazarlarında mevcut olduğunu buldu. Bu hizmetler dolandırıcılık, şantaj, gizli verilerin çalınması gibi çeşitli amaçlara yönelik olarak yapay zeka yardımıyla video oluşturma olanağı sağlar. Kaspersky uzmanlarının tahminlerine göre bir dakikalık deepfake video 300 $ gibi düşük bir fiyata satın alınabiliyor.
İnternet kullanıcıları arasında dijital okuryazarlık konusunda da önemli bir boşluk olduğuna dair endişeler var. Yakın zamanda gerçekleştirilen Kaspersky İş Dijitalleşme Anketi¹'ne göre Orta Doğu, Türkiye ve Afrika (META) bölgesinde ankete katılan çalışanların %51'i, deepfake'i gerçek görüntüden ayırt edebildiklerini söyledi. Testte yalnızca %25'i gerçek görüntüyü yapay zeka tarafından oluşturulan görüntüden ayırt edebildi.2. Kimlik avı ve diğer sosyal mühendislik saldırılarının öncelikli hedefinin çoğunlukla çalışanlar olduğu göz önüne alındığında, bu durum kuruluşların risk altında olduğu anlamına geliyor.
Örneğin siber suçlular, CEO'nun banka havalesi talep ettiğini veya ödemeyi onayladığını gösteren sahte bir video oluşturabilir ve bu video, şirket varlıklarını çalmak için kullanılabilir. Bireylerden zorla para veya bilgi almak için kullanılabilecek, uygunsuz videolar veya resimler oluşturulabilir.
Kaspersky'de Baş Veri Bilimcisi Vladislav TuşkanovDiyor: “Yüksek kaliteli deepfake'ler yaratan teknolojiler henüz yaygın olarak mevcut olmasa da, bu teknolojinin en olası kullanımlarından biri, gerçek zamanlı sesler üreterek başka birinin kimliğine bürünmektir. Örneğin, çok uluslu bir şirkette çalışan bir finans memuru, bunu yapıyormuş gibi davranabilir. deepfake teknolojisi sayesinde video konferans yoluyla şirketin finans yöneticisi olun. dolandırıcılara 25 milyon doları transfer etmesi için kandırıldı. Deepfake'lerin yalnızca işletmeler için değil bireysel kullanıcılar için de tehdit oluşturduğunu unutmamak önemlidir. Yanlış bilgi yayıyorlar, dolandırıcılık amacıyla kullanılıyorlar veya rızası olmadan başka birinin kimliğine bürünüyorlar. “Bu, kendimizi korumamız gereken, giderek büyüyen bir siber tehdit.”
Kaspersky, bireyleri ve işletmeleri deepfake'lerin oluşturduğu çeşitli tehditlerden korumak için aşağıdaki önlemleri öneriyor:
- Şüpheli aramalara karşı dikkatli olun. Kötü ses kalitesine, sesin doğal olmayan monotonluğuna, anlaşılmaz konuşma kalıplarına ve anlamsız gürültülere dikkat edin.
- Deepfake videoların temel özelliklerini öğrenin. Bu özellikler arasında sarsıntılı hareketler, bir çekimden diğerine ışıktaki değişiklikler, cilt tonundaki değişiklikler, konuşmayla senkronize olmayan dudak hareketleri ve zayıf aydınlatma yer alır.
- Asla duygulara dayalı kararlar vermeyin ve ayrıntıları kimseyle paylaşmayın. Yalnızca o kişinin bileceği bir şeyi sormak veya aramayı durdurup birden fazla kanaldan ayrı ayrı alınan bilgileri doğrulamak her zaman daha iyidir. Bu noktada “güven ama doğrula” protokolünü izleyin.
- Kuruluşunuzun siber güvenlik uygulamalarını gözden geçirin ve güncelleyin.
- Kaspersky Tehdit İstihbaratı Bunun gibi bir güvenlik çözümü, siber güvenlik profesyonellerinin en son deepfake gelişmelerinden haberdar olmalarına yardımcı olabilir.
- Şirketler ayrıca çalışanların deepfake'lerin ne olduğunu, nasıl çalıştıklarını ve ortaya çıkarabilecekleri zorlukları anlamalarını sağlayarak insan güvenlik duvarını güçlendirmeli. Buna, çalışanlara deepfake saldırılarının nasıl tespit edileceğini öğretmek için sürekli farkındalık ve eğitim de dahildir.
Kaynak: (guzelhaber.net) Güzel Haber Masası
—–Sponsorlu Bağlantılar—–
—–Sponsorlu Bağlantılar—–
—–Sponsorlu Bağlantılar—–