DOLAR 33,9818 0.11%
EURO 37,7251 -0.39%
ALTIN 2.726,78-0,69
BITCOIN 18482641,01%
İstanbul
25°

HAFİF YAĞMUR

13:07

ÖĞLE'YE KALAN SÜRE

Kaspersky uzmanları ses odaklı sahtekarlıkların nasıl tespit edileceğini paylaştı: “Duyduklarınıza inanmayın!”
  • Haberv
  • Teknoloji
  • Kaspersky uzmanları ses odaklı sahtekarlıkların nasıl tespit edileceğini paylaştı: “Duyduklarınıza inanmayın!”

Kaspersky uzmanları ses odaklı sahtekarlıkların nasıl tespit edileceğini paylaştı: “Duyduklarınıza inanmayın!”

ABONE OL
2 Ağustos 2023 12:12
Kaspersky uzmanları ses odaklı sahtekarlıkların nasıl tespit edileceğini paylaştı: “Duyduklarınıza inanmayın!”
0

BEĞENDİM

ABONE OL

Kaspersky uzmanları, deepfake metoduyla hazırlanmış sesleri ayırt etme konusundaki bilgilerini paylaştı. “Derin öğrenme” ve “sahte” sözlerinin birleşiminden oluşan yapay zeka odaklı deepfake sahtecilik sistemleri son birkaç yıldır süratli bir formda yaygınlaşıyor. Bu teknikte makine tahsili teknikleri manzara, görüntü ve ses içeriğinin ilgi cazip düzmece örneklerini oluşturmak için kullanılıyor. Bir sesin uydurma mi yoksa gerçek bir beşere mı ilişkin olduğunu belirlemek için konuşmanın tınısına, stiline ve tonlamasına dikkat etmek gerekiyor. Örneğin deepfake usulü ile oluşturulmuş uydurma bir ses, doğal olmayan bir monotonluğa sahip olacaktır. Dikkat edilmesi gereken bir öbür özellik de sesin kalitesidir. Bu nedenle bir sesli iletisi yahut aramayı dinlerken, anlamsız sözlere ve garip seslere kuşkuyla yaklaşılmalıdır.

Deepfake teknolojisi kendi başına zararsız olsa da, dolandırıcıların elinde aldatma, karalama ve dezenformasyon için fırsatlar sunan tehlikeli bir araç haline gelebiliyor. Neyse ki bugüne dek ses sahteleri içeren rastgele bir kitlesel dolandırıcılık hadisesi yaşanmadı. Lakin ses odaklı deepfake örneklerini içeren birkaç yüksek profilli dolandırıcılık hadisesi yaşandı. Dolandırıcılar 2019’da bu teknolojiyi İngiltere merkezli bir güç firmasını dolandırmak için kullandı. Yapılan bir telefon görüşmesinde dolandırıcı, firmanın Alman ana şirketinin genel müdürü üzere davranarak belli bir tedarikçi şirketin hesabına hemen 220 bin Euro transfer edilmesini talep etti. Bir yıl sonra, 2020’de, dolandırıcılar bir Japon şirketinden 35 milyon dolara varan parayı çalmak için deepfake kullandı.

Kaspersky Kıdemli Data Bilimcisi Dmitry Anikin, şunları söyledi: “Şu anda yüksek kaliteli deepfake teknolojisi yaygın kullanıma açık değil. Lakin gelecekte bu teknoloji serbestçe kullanılabilir hale gelebilir ve bu da kelam konusu dolandırıcılık örneklerinin sayısının artmasına yol açabilir. Büyük olasılıkla saldırganlar gerçek vakitli sesler üretmeye çalışacaklardır. Böylelikle örneğin birinin akrabasının kimliğine bürünebilir ve para koparabilir. Bu türlü bir senaryo şimdilik gerçekçi değil. Yüksek kaliteli deepfake örnekleri oluşturmak çok fazla kaynak gerektiriyor. Fakat düşük kaliteli bir ses düzmecesi yapmak daha az kaynak gerektirir ve dolandırıcılar bu yola başvurabilir. Üstte bahsettiğimiz ipuçları, bu türlü bir sahtekarlığı tespit etmenize yardımcı olabilir.”

Kaspersky uzmanları kendinizi deepfake’lerden korunmak için şunları öneriyor:

  • Şüpheli aramalara dikkat edin. Düşük ses kalitesi, doğal olmayan ve monoton ses, anlaşılmaz konuşma formu ve yabancı gürültüyü bir ihtar olarak alın.
  • Duygularınıza nazaran karar vermeyin. Bilgilerinizi kimseyle paylaşmayın ve karşınızdaki ses ikna edici olsa bile para transferi yapmayın. Bu türlü bir durumda aramayı sonlandırmak ve alınan bilgileri birkaç farklı kaynak üzerinden iki kere denetim etmek daha yeterlidir.
  • Cihazlarınızda Kaspersky Premium üzere muteber güvenlik tahlilleri kullanın. Bu aygıtlarınızın kullanımını daha da inançlı hale getirecektir.
İlginizi Çekebilir;  Koç Holding ve Microsoft Türkiye, Bilişim Sektörünün Gelecek Yetenekleri için Güçlerini Birleştiriyor

 

Kaynak: (BYZHA) Beyaz Haber Ajansı

Bu yazı yorumlara kapatılmıştır.


HIZLI YORUM YAP
300x250r

300x250r

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.