<
BASIN TOPLANTISI - ETKİNLİK - KONFERANS
Basın Daveti Türkiye Kurumsal Yatırımcı Yöneticileri Derneği 06 Şubat 2020, 09:30

Türkiye Kurumsal Yatırımcı Yöneticileri Derneği (TKYD), 2019 yılında Emeklilik ve Yatırım Fonları performanslarını ve fonlara artan ilgiyi açıklıyor. 06 Şubat 2020...

Tüm Etkinlikleri Göster
BANKA HİSSELERİ
Hisse Fiyat Değişim(%) Piyasa Değeri

E-posta listemize kayıt olun, en son haberler adresinize gelsin.

Ana SayfaFinans Kulisİnternet bankacılığında deepfake tehdidi----

İnternet bankacılığında deepfake tehdidi

İnternet bankacılığında deepfake tehdidi
21 Eylül 2023 - 16:08 www.finansingundemi.com

Yapay zeka teknolojileriyle birlikte yaygınlaşan deepfake içerikleri kimlik hırsızlığı tehditlerini de beraberinde getirdi. Finans kuruluşları deepfake tespit sistemleri entegre etmek için zamanla yarışıyor

FINANSGUNDEM.COM – DIŞ HABERLER SERVİSİ

Son dönemde yükselişe geçen ‘deepfake’ teknolojileri gerçek insanların seslerini taklit olarak gerçek zamanlı bir biçimde üretilmesine imkan sağlıyor. Üretken yapay zeka teknolojilerindeki son yükseliş söz konusu deepfake teknolojilerinin çok daha yaygın bir biçimde kullanılmasına olanak sundu. Financial Times’ın haberinde ise söz konusu teknolojiler karşısında dijital bankacılığın güvenliği sorgulanıyor.

Deepfake uygulamaları bir süredir film düzenleme gibi alanlarda sıklıkla kullanılıyordu. Ancak finansgundem.com’un derlediği bilgilere göre teknolojinin yaygınlaşmasıyla birlikte ‘deepfake’in yanlış ellere geçme olasılığı da arttı. Dolayısıyla deepfake içeriklerinin hırsızlık ve sahtekarlık işlemleri için kullanılması ciddi bir risk unsuru haline geldi.

Elbette teknolojinin gelişimiyle birlikte piyasadaki deepfake tespit araçları da hızlı bir şekilde gelişti. Söz konusu araçlar yine yapay zekayı kullanarak içeriklerdeki sahtekarlık sinyallerini algılamaya odaklanıyor. Örneğin bir fotoğrafta yer alan aydınlatmalar, gölgeler ve açılar üzerindeki bozulmalar ve bulanıklıklar tutarsızlıkların yakalanmasını sağlayan bariz işaretler arasında.

Bununla birlikte son dönemde yaratılan yapay zeka modellerinin ve ChatGPT gibi yapay zeka sohbet robotlarının patlaması deepfake teknolojisini daha ikna edici ve daha kolay ulaşılır hale getirdi. Diğer bir deyişle artık bilgisayar korsanlarının daha yüksek teknik yeteneklere ihtiyacı da kalmadı.

FT haberinde deepfake tespiti alanında uzmanlaşan start-up firması Clarity’nin CEO’su Michael Matias, “Açık kaynaklı daha gelişmiş yapay zeka modelleri piyasaya sürülüyor. Bu da deepfake’i daha yaygın hale getiriyor ve teknolojiyi daha da ileri götürüyor” dedi. Matias kolayca ulaşılabilen “katil uygulamalar” konusunda uyardı. CEO kötü insanların hızlı, kolay ve masrafsız bir şekilde süper yüksek kalitede deepfake üretebilme kapasitesine imkan sağlandığını söyledi. Üstelik bu deepfake’ler bazı deepfake tespit araçlarını çok da etkisiz hale getirebilir.

Teknoloji tedarikçisi ExpressVPN’e göre şu anda milyonlarca deepfake içerik şu anda çevrimiçi durumda ve bu rakamlar 2019’da 15 bin’den daha düşüktü. Regula tarafından yapılan bir ankete göre kurumsal şirketlerin yaklaşık yüzde 80’i bu deepfake ses veya video kayıtlarını operasyonlarına yönelik bir tehdit olarak görüyor.

Kimlik doğrulama sağlayıcısı şirket OneSpan’in CEO’su Matthew Moynahan, “İşletmelerin bu konuyu yeni nesil siber güvenlik endişesi olarak görmeleri gerekiyor. Gizlilik ve uyumluluk sorunlarının hemen hemen hepsini çözdük. Şimdiyse tüm konu kimlik doğrulama ile alakalı” dedi.

Deepfake ilgili sorunlar gerçekten de şirketler için ciddi bir öncelik haline geldi. Transmit Security tarafından haziran ayında yayınlanan bir rapor, yapay zeka tarafından üretilen deepfake'lerin, müşterilerin hesaplarını koruyan yüz tanıma sistemleri gibi biyometrik güvenlik sistemlerini atlamak ve sahte kimlik belgeleri oluşturmak için kullanılabileceğini ortaya koydu. Yapay zeka sohbet robotları artık güvenilir bir bireyi veya müşteri hizmetlerini taklit edebilecek derecede programlanabilir durumda. Bu da insanların diğer saldırılarda kullanılacak kişisel verilerini paylaşması için kandırılabilmesi tehdidini artırıyor.

Risk çözümleri kuruluşu LexisNexis’in CEO’su Haywood Talcove bu tip kimlik hırsızlığıyla mücadele etmenin yolu olarak davranışsal biyometriyi gösteriyor. Söz konusu teknik bir kullanıcının akıllı telefon veya bilgisayar gibi bir cihazı kullanırken nasıl davrandığını değerlendirmeyi ve öğrenmeyi içeriyor. Buna göre kullanıcıda herhangi bir şüpheli değişikliğin algılanması halinde sistem uyarı veriyor.

Talcove, “Bu davranışsal biyometrik sistemler, birinin aslında iddia ettiği kişi olmayabileceğine dair binlerce ipucu arar” açıklamasında bulundu. Örneğin, bir kullanıcı daha önce hiç ziyaret etmediği bir internet sitesinin yeni bir bölümündeyse, bu siteye aşina görünüyorsa ve hızla gezinebiliyorsa, bu bir dolandırıcılık göstergesi olabilir.

BioCatch gibi start-up'ların yanı sıra LexisNexis gibi daha büyük gruplar, bir kullanıcıyı gerçek zamanlı olarak sürekli doğrulamak için bu teknolojiyi geliştirenler arasındadır.

Yine de karşı saldırı riskleri de bulunuyor. Transmit Security raporunda, “Geleneksel dolandırıcılık tespit sistemleri genellikle kural tabanlı algoritmalara veya model tanıma tekniklerine dayanır. Ancak, AI destekli dolandırıcılar bu sistemlerden kaçmak için deepfake kullanabilirler. Sahte veriler üreterek veya AI modellerinin öğrendiği kalıpları manipüle ederek dolandırıcılar, algoritmaları hileli faaliyetleri meşru olarak sınıflandırmak için kandırabilirler” uyarısında bulunuldu.

İnternet kimlik hırsızlığıyla mücadele için diğer yaklaşımlar arasında çok faktörlü kimlik doğrulama ve cihaz değerlendirme araçları bulunmaktadır. Kimlik doğrulama start-up firması Verisoul’un CEO’su Henry Legard “canlılık” olarak adlandırdığı niteliğin kimlik hırsızlığını önlemede önemli bir gösterge olacağına inanıyor.

Söz konusu kriter, kullanıcıların kim olduklarını doğrulamak için kendilerinin kısa bir videosunu çekmelerini gerektirebilir. Teknoloji, 3 boyutlu maske veya görüntü değil, gerçek olduğunuzdan emin olmak için hareketlerinizi veya insan olduğunuzdan emin olmak için göz kırpmaları, ağız seğirmeleri gibi ince ayrıntıları kullanıyor.

Özellikle bankalar olmak üzere birçok şirket davranışsal biyometri ve diğer sağlam kimlik doğrulama tekniklerini benimsiyor. Ancak Talcove devlet dairelerinde hala yalnızca yüz tanıma sistemlerine güvenildiği uyarısında bulunuyor. Talcove, “Şu anda, neredeyse tüm ABD hükümeti ifşa olmuş durumda” ifadelerine yer verdi.

Dikkat! Dolandırıcılar ‘deepfake’ kullanıyor

 

Müzik sektöründe ‘deepfake’ tartışması

 

İnternette 'deepfake' dolandırıcılık: Kendilerini kadın olarak tanıtıyorlar!

 

YORUMLAR (0)
:) :( ;) :D :O (6) (A) :'( :| :o) 8-) :-* (M)