Google DeepMind'ın kurucu ortağı Mustafa Süleyman, yapay zekanın patojenleri daha fazla zarar verecek şekilde tasarlamak için kullanılmasının pandemi gibi bir senaryoya yol açabileceğine dair endişelerini dile getirdi.
Bir podcast'in yakın zamanda yayımlanan bölümünde "En karanlık senaryo insanların patojenlerle, kazara veya kasıtlı olarak daha bulaşıcı ya da daha ölümcül olabilecek, tasarlanmış sentetik patojenlerle deneyler yapmasıdır" dedi.
Independent Türkçe'de yer alan habere göre Süleyman, insanların şarbon gibi patojen mikroplara kolayca erişmesini engellemek için nasıl kısıtlamalar getiriliyorsa, gelişmiş yapay zeka teknolojisine ve bu tür modelleri çalıştıran yazılımlara erişimin kısıtlanması çağrısında bulundu.
The Diary of a CEO podcast'inde, "İşte tam burayı kontrol altına almamız gerekiyor. Bu tür deneyleri gerçekleştirecek araçlara ve bilgi birikimine erişimi sınırlamalıyız. Herhangi birinin bunlara erişmesine izin veremeyiz. Yapay zeka yazılımını, bulut sistemlerini ve hatta bazı biyolojik materyalleri kimlerin kullanabileceğini sınırlamamız gerekiyor." dedi.
Süleyman, "Ve tabii ki biyoloji tarafında bu, bazı maddelere erişimin kısıtlanması anlamına geliyor" derken yapay zeka gelişimine "ihtiyatlılık ilkesi"yle yaklaşılması gerektiğini sözlerine ekledi.
Süleyman'ın açıklamaları, biyolojiyle ilgili hiçbir eğitimi olmayan lisans öğrencilerinin bile yapay zeka sistemlerinden detaylı biyolojik silah önerileri alabildiğini bildiren tarihli bir çalışmada ortaya konan endişeleri yineliyor.
Aralarında Massachusetts Teknoloji Enstitüsü'nden (MIT) isimlerin de olduğu araştırmacılar, sohbet robotlarının "pandemi başlatma potansiyeline sahip 4 patojeni" bir saat içinde önerebileceğini ve bunların sentetik DNA'dan nasıl üretilebileceğini anlatabildiğini keşfetti.
Araştırma, sohbet robotlarının aynı zamanda "siparişleri taraması muhtemel olmayan DNA sentez şirketlerinin adlarını verdiğini, ayrıntılı protokolleri ve bunlardaki sorunların nasıl giderileceğini belirlediğini ve tersine genetik uygulama becerisine sahip olmayanların bir merkez tesis veya sözleşmeli araştırma kuruluşuyla çalışmasını tavsiye ettiğini" ortaya koydu.
Çalışmada, ChatGPT gibi bu tür büyük dil modelleri (LLM'ler) hakkında "pandemi sınıfı virüsleri, güvenilir bir şekilde tanımlanır tanımlanmaz, laboratuvar eğitimi çok az olan veya hiç olmayan kişileri bile kapsayacak kadar yaygın erişime açık hale getirecekler" dendi.
Yazarları arasında MIT'den biyolojik risk uzmanı Kevin Esvelt'in de bulunduğu çalışma, "yayılmayı önleyici tedbirler" alınması çağrısında bulundu.
Bu önlemler "kullanıma sunulmadan önce LLM'lerin üçüncü taraflarca değerlendirmelerini, eğitim veri kümelerinin zararlı kavramlardan arındırılmasını ve sentez sağlayıcılar tarafından üretilen veya sözleşmeli araştırma kuruluşları ve robotik 'bulut laboratuvarları' tarafından organizma veya virüs mühendisliği için kullanılan tüm DNA'ların doğrulanabilir bir şekilde taranmasını" içerebilir.
Yapay zekanın gözü yeni mezunların işlerinde
Fransa'da kamuda "zaman tasarrufu" için yapay zeka kullanacak
Kişiselleştirilmiş eğitim ve yapay zeka öğrenmeyi dönüştürüyor
Baby boomer’lar yapay zekaya finansal tavsiye için daha çok başvuruyor
Çip sektörüne 'yapay zeka' dopingi
Yapay zeka nimet mi yoksa bir lanet mi? Büyük bir rol ayrımındayız!