Loading...
tr usd
USD
0.21%
Amerikan Doları
41,57 TRY
tr euro
EURO
0.10%
Euro
48,55 TRY
tr chf
CHF
0.15%
İsviçre Frangı
51,97 TRY
tr cny
CNY
0.19%
Çin Yuanı
5,82 TRY
tr gbp
GBP
0.10%
İngiliz Sterlini
55,54 TRY
bist-100
BIST
-1.04%
Bist 100
11.258,72 TRY
gau
GR. ALTIN
0.23%
Gram Altın
5.012,06 TRY
btc
BTC
-1.61%
Bitcoin
65.863,63 USDT
eth
ETH
-3.68%
Ethereum
1.932,83 USDT
bch
BCH
-1.94%
Bitcoin Cash
440,86 USDT
xrp
XRP
-3.13%
Ripple
1,34 USDT
ltc
LTC
-2.30%
Litecoin
53,13 USDT
bnb
BNB
-0.80%
Binance Coin
620,95 USDT
sol
SOL
-3.12%
Solana
83,40 USDT
avax
AVAX
-2.46%
Avalanche
8,94 USDT
  1. Haberler
  2. Teknoloji
  3. Her duyduğunuza inanmayın

Her duyduğunuza inanmayın

featured
her-duydugunuza-inanmayin.jpg
service
Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Gördüğümüz ve duyduğumuz  şeylere inandığımız günler geride kaldı. Üretken yapay zekâ (GenAI), deepfake ses ve video oluşturmayı o kadar kolaylaştırdı ki sahte bir klip oluşturmak bir iki düğmeye basmak kadar kolay hâle geldi. Bu, işletmeler dâhil herkes için kötü bir haber. Siber güvenlik şirketi ESET işletmelerin karşılaşabileceği telefon dolandırıcılığı risklerini inceledi ve deepfake’lerin nasıl anlaşılabileceğine yönelik bilgiler paylaştı. 

Deepfake’ler, dolandırıcıların Müşterini Tanı ve hesap doğrulama kontrollerini atlatmasına yardımcı oluyor. En büyük tehditler arasında  finansal havale dolandırıcılığı ve yönetici hesaplarının ele geçirilmesi yer alıyor.

Telefon dolandırıcılığı saldırıları nasıl gerçekleşiyor?

Saldırgan, taklit edeceği kişiyi seçer. Bu kişi bir CEO, CFO veya hatta bir tedarikçi olabilir. Çevrimiçi olarak bir ses örneği bulurlar. Bu, düzenli olarak kamuoyuna konuşan yüksek profilli yöneticiler için oldukça kolaydır. Bu örnek, bir sosyal medya hesabından, bir kazanç raporu konferansından, bir video veya TV röportajından veya başka herhangi bir kaynaktan alınabilir. Birkaç saniyelik bir kayıt yeterli olacaktır. Arayacakları kişiyi seçerler. Bu, biraz masa başı araştırması gerektirebilir. Genellikle LinkedIn’de IT yardım masası personeli veya finans ekibi üyeleri aranır.  Kişiyi doğrudan arayabilir veya önceden bir e-posta gönderebilirler – örneğin, acil bir para transferi, parola veya çok faktörlü kimlik doğrulama (MFA) sıfırlama talebi için CEO veya vadesi geçmiş bir fatura için ödeme talep eden bir tedarikçi. GenAI tarafından üretilen deepfake sesini kullanarak CEO veya tedarikçiyi taklit ederek önceden seçilen hedefi ararlar. Araca bağlı olarak, önceden yazılmış konuşmaya sadık kalabilirler veya saldırganın sesinin kurbanın sesine neredeyse gerçek zamanlı olarak çevrildiği daha sofistike bir “konuşmadan konuşmaya” yöntemi kullanabilirler.

Duymak inanmaktır

Bu tür saldırılar giderek daha ucuz, daha kolay ve daha ikna edici hâle geliyor. Bazı araçlar, taklit edilen sesin daha inandırıcı olması için arka plan gürültüsü, duraklamalar ve kekemelikler bile ekleyebiliyor. Her konuşmacıya özgü ritimleri, tonlamaları ve sözel tikleri taklit etmede giderek daha başarılı hâle geliyorlar. Saldırı telefonla gerçekleştirildiğinde dinleyici için yapay zekâ ile ilgili aksaklıkları fark etmek daha zor olabilir. Saldırganlar, hedeflerine ulaşmak için dinleyiciye taleplerine acilen yanıt vermesi için baskı yapmak gibi sosyal mühendislik taktikleri de kullanabilir. Bir başka klasik taktik ise dinleyiciyi talebi gizli tutması için zorlamaktır. 

Bununla birlikte, sahtekârı tespit etmenin yolları vardır. Kullandıkları GenAI’nin ne kadar gelişmiş olduğuna bağlı olarak, aşağıdakileri ayırt etmek mümkün olabilir:

  • Konuşmacının konuşmasında doğal olmayan bir ritim
  • Konuşmacının sesinde doğal olmayan düz bir duygusal ton
  • Doğal olmayan nefes alma veya hatta nefessiz cümleler
  • Olağan dışı robotik ses (daha az gelişmiş araçlar kullandıklarında)
  • Garip bir şekilde yok olan veya çok tekdüze olan arka plan gürültüsü 

Karşı koyma zamanı

Tehdit aktörlerinin bu tür dolandırıcılıklara daha fazla zaman ayırmalarının nedeni potansiyel kazançlardır.  En kötü senaryonun gerçekleşme olasılığını en aza indirmek için atabileceğiniz bazı önemli adımları yeniden gözden geçirmek faydalı olacaktır. İlk adım, çalışanların eğitimi ve bilinçlendirilmesidir. Bu programlar, çalışanların ne beklemeleri gerektiğini, nelerin risk altında olduğunu ve nasıl davranmaları gerektiğini bilmelerini sağlamak için deepfake ses simülasyonlarını içerecek şekilde güncellenmelidir. Çalışanlara, sosyal mühendisliğin belirgin işaretlerini ve yukarıda açıklananlar gibi tipik deepfake senaryolarını tespit etmeleri öğretilmelidir. 

  • Telefonla yapılan tüm taleplerin bant dışı doğrulanması – yani, kurumsal mesajlaşma hesaplarını kullanarak göndereni bağımsız olarak kontrol etmek,
  • Büyük finansal transferleri veya tedarikçinin banka bilgilerindeki değişiklikleri iki kişinin imzalaması,
  • Yöneticilerin, telefonda kim olduklarını kanıtlamak için cevaplamaları gereken önceden kararlaştırılmış şifreler veya sorular.

Teknoloji de yardımcı olabilir. Sentetik sesin varlığını kontrol etmek için çeşitli parametreleri kontrol eden algılama araçları mevcuttur. Uygulaması daha zor olsa da başka bir önlem de yöneticilerin kamuya açık görünümlerini sınırlayarak tehdit aktörlerinin ses kaydına ulaşma fırsatlarını kısıtlamaktır.

İnsanlar, süreçler ve teknoloji

Deepfake’lerin üretimi basit ve maliyeti düşüktür. Dolandırıcıların elde edebileceği potansiyel olarak büyük meblağlar göz önüne alındığında sesli klonlama dolandırıcılıklarının yakın zamanda sona ereceğini düşünmek olası değil. Bu nedenle, insan, süreç ve teknolojiye dayalı üç yönlü bir yaklaşım, kuruluşunuzun riski azaltmak için sahip olduğu en iyi seçenektir.

 

 

Kaynak: (BYZHA) Beyaz Haber Ajansı

0
be_endim
Beğendim
0
dikkatimi_ekti
Dikkatimi Çekti
0
do_ru_bilgi
Doğru Bilgi
0
e_siz_bilgi
Eşsiz Bilgi
0
alk_l_yorum
Alkışlıyorum
0
sevdim
Sevdim
Sorumluluk Reddi Beyanı:

Pellentesque mauris nisi, ornare quis ornare non, posuere at mauris. Vivamus gravida lectus libero, a dictum massa laoreet in. Nulla facilisi. Cras at justo elit. Duis vel augue nec tellus pretium semper. Duis in consequat lectus. In posuere iaculis dignissim.

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

KAI ile Haber Hakkında Sohbet
Sohbet sistemi şu anda aktif değil. Lütfen daha sonra tekrar deneyin.