Hisse | Fiyat | Değişim(%) | Piyasa Değeri |
---|
E-posta listemize kayıt olun, en son haberler adresinize gelsin.
FINANSGUNDEM.COM – DIŞ HABERLER SERVİSİ
Deepfake dolandırıcıları dünya çapında şirketlerin milyonlarca dolarını yağmaladı. Siber güvenlik uzmanları ise üretken yapay zekayı dolandırıcılık için kullanımını sonucu durumun çok daha kötüye gidebileceği konusunda uyarıyor.
Üretken yapay zeka teknolojiler günümüzde gerçek insanları ikna edici bir biçimde taklit edebiliyor ve bu içerikler video, ses veya görüntü olarak kullanılabiliyor. Bunun en büyük örneklerinden biri şubat ayında yaşandı. Hong Konglu bir finans çalışanı bir meslektaşının video konferans görüşmesinde kendisinden 25 milyon dolar para aktarmasını istediğini bildirdi. Gerçekte ise parayı isteyen deepfake marifetiyle canlı yayında bankacının görünümünü taklit eden dolandırıcılardı.
CNBC’nin haberine göre geçen hafta İngiliz mühendislik firması Arup bu dolandırıcılık davasındaki şirketlerden biri olduğunu doğruladı. Ancak soruşturmanın devam etmesi nedeniyle konuyla ilgili ayrıntılara giremedi.
Netskope'un Asya Pasifik Bilişim Kurulu Başkanı ve Baş Güvenlik Sorumlusu David Fairman, Open AI'nin 2022'de piyasaya sürülen ve üretken yapay zeka teknolojisini hızla ana akım haline getiren Chat GPT robotunun popülerleşmesinin bir sonucu olarak bu tür tehditlerin arttığını söyledi.
Fairman, "Bu hizmetlerin halka açık olması, siber suçlular için engelleri azalttı. Artık özel bir teknolojik beceriye sahip olmaları gerekmiyor" dedi.
Yapay zeka teknolojisi gelişmeye devam ettikçe dolandırıcılıkların hacmi ve karmaşıklığı genişledi.
Yükselen trend
İnsan benzeri metin, görüntü ve video içeriği oluşturmak için çeşitli üretken yapay zeka hizmetleri kullanılabiliyor. Teknoloji bu özelliğiyle belirli kişileri dijital olarak manipüle etmeye ve yeniden yaratmaya çalışan yasa dışı aktörler için güçlü araçlar olarak hareket edebilir.
Arup sözcüsü konuyla ilgili açıklamasında, "Dünyadaki diğer birçok işletme gibi, operasyonlarımız da fatura sahtekarlığı, kimlik avı dolandırıcılığı, WhatsApp ses dolandırıcılığı ve deepfake dolandırıcılığı dahil olmak üzere düzenli olarak saldırılara maruz kalıyoruz” ifadelerine yer verdi.
25 milyon dolarlık deepfake dolandırıcılık davasında kendilerini şirketin finans direktörü olarak tanıtan dolandırıcılar para transferi yapmak istedikleri personelle video konferans görüşmesi üzerinden bağlantı kurdu. Ancak toplantıda bulunan katılımcıların geri kalanı gerçekte ise dijital olarak üretilmiş deepfake figürlerdi.
Arup, dolandırıcıların "sahte sesler ve görüntüler" kullanıldığını doğruladı ve "bu saldırıların sayılarının ve karmaşıklığının son aylarda keskin bir şekilde arttığını" da sözlerine ekledi
Çin devlet medyası da bu yıl içerisinde benzeri bir vakayı bildirdi. Şanji eyaletinde bir kadın Finans çalışanı, patronu sandığı bir kişiyle gerçekleştirdiği deepfake görüntülü görüşmenin ardından dolandırıcıların hesabına 1,86 milyon yuan (262.000 $) aktardı.
Geçen yılın ağustos ayında Google’a bağlı bir siber güvenlik şirketi olan Mandiant, kimlik avı dolandırıcılığı, sahte bilgi ve diğer yasa dışı amaçlar için yapay zeka ve deepfake teknolojisini kullanan bir dizi yasa dışı aktör örneğini belgeledi.
Şirket o dönemlerde teknolojinin bu tür faaliyetler için kullanımının sınırlı olduğunu ancak yeni üretken yapay zeka araçlarının kullanımının artmasıyla kötü niyetli aktörler tarafından kullanımının da hızlanacağını belirtmişti.
Etki alanı genişleyebilir
Siber güvenlik uzmanları doğrudan saldırıların yanı sıra şirketlere dair deepfake içeriklerin ve konuşmaların kötü niyetli kişiler tarafından kullanılabileceğinden endişe duyduklarını belirtiyor.
Great Hill Partners'ta siber güvenlik uzmanı ve yönetici olan Jason Hogg'a göre, üst düzey şirket üyelerinin deepfake'leri, hisse senedi fiyatlarını manipüle etmek, bir şirketin markasını ve satışlarını karalamak ve diğer zararlı dezenformasyonları yaymak için sahte haberler yaymak amacıyla kullanılabilir.
Eski bir FBI ajanı olan Hogg, “Bu sadece yüzeydekiler” uyarısında bulundu. Hogg üretken yapay zekanın, sosyal medyada ve diğer medya platformlarında barındırılan halka açık içerik gibi bir dizi dijital bilgiye dayalı olarak deepfake'ler oluşturabildiğini vurguladı.
Binance'in baş iletişim sorumlusu Patrick Hillmann, 2022 tarihli bir blog yazısında, önceki haber röportajlarını ve TV programlarını kaynak alan dolandırıcıların toplantılar yaparak müşterileri ve bağlantılarını kandırmaya çalıştığını iddia etti.
Netskope’tan Fairmen bu tür riskler sebebiyle bazı yöneticilerin internet üzerindeki içeriklerini silme baskısıyla karşılaştığına dikkat çekti. Zira herhangi bir röportaj veya içerik dolandırıcıların cephanesini genişletecek veriler sağlayabilir.
İnternet bankacılığında deepfake tehdidi
Dikkat! Dolandırıcılar ‘deepfake’ kullanıyor
Çinli yapay zeka çipi üreticileri uluslararası liderler ile farkı kapatıyorlar
Finansingundemi.com’da yer alan bilgi, yorum ve tavsiyeleri yatırım danışmanlığı kapsamında değildir. Yatırım danışmanlığı hizmeti; aracı kurumlar, portföy yönetim şirketleri, mevduat kabul etmeyen bankalar ile müşteri arasında imzalanacak yatırım danışmanlığı sözleşmesi çerçevesinde sunulmaktadır. Burada yer alan yorum ve tavsiyeler, yorum ve tavsiyede bulunanların kişisel görüşlerine dayanmaktadır. Bu görüşler mali durumunuz ile risk ve getiri tercihlerinize uygun olmayabilir. Bu nedenle, sadece burada yer alan bilgilere dayanılarak yatırım kararı verilmesi beklentilerinize uygun sonuçlar doğurmayabilir. Burada yer alan bilgiler, güvenilir olduğuna inanılan halka açık kaynaklardan elde edilmiş olup bu kaynaklardaki bilgilerin hata ve eksikliğinden ve ticari amaçlı işlemlerde kullanılmasından doğabilecek zararlardan www.finansingundemi.com ve yöneticileri hiçbir şekilde sorumluluk kabul etmemektedir. Burada yer alan görüş ve düşüncelerin www.finansingundemi.com ve yönetimi için hiçbir bağlayıcılığı yoktur. BİST isim ve logosu “koruma marka belgesi” altında korunmakta olup izinsiz kullanılamaz, iktibas edilemez, değiştirilemez. BİST ismi altında açıklanan tüm bilgilerin telif hakları tamamen BİST’e ait olup, tekrar yayınlanamaz.