FINANSGUNDEM.COM - DIŞ HABERLER SERVİSİ
Yapay zekayı yaratan bilim insanları, “Yapay zeka yakında kontrolümüz dışına çıkabilir” diyerek endişelerini dile getiriyor.
Finansgundem.com’un derlediği bilgilere göre, dünyanın önde gelen yapay zeka bilim insanları, dünya hükümetlerini çok geç olmadan teknolojiyi düzenlemek için birlikte çalışmaya çağırıyor.
Atılması gereken adımlar
Fortune’dan Marco Quiroz-Gutierrez’in haberine göre, yapay zekanın araştırma ve geliştirilmesine öncülük eden üç Turing Ödülü (bilgisayar biliminin Nobel Ödülü) sahibi, dünyanın dört bir yanından bir düzine üst düzey bilim insanıyla birlikte yapay zekayı ilerletmek için daha iyi güvenlik önlemleri oluşturulması çağrısında bulunan açık bir mektubu imzaladı. Bilim insanları, yapay zeka teknolojisi hızla ilerledikçe herhangi bir hatanın veya kötüye kullanımın insan ırkı için ciddi sonuçlar doğurabileceğini iddia etti.
Bilim insanları mektupta, “İnsan kontrolünün kaybı veya yapay zeka sistemlerinin kötü niyetli kullanımı, tüm insanlık için felaket sonuçlara yol açabilir” diye yazdı ve yapay zeka gelişiminin hızlı temposuyla, bu ‘felaket sonuçların’ her an gelebileceği konusunda uyarıda bulundu.
Bilim insanları, kötü amaçlı yapay zeka kullanım riskini derhal ele almaya başlamak için şu adımların atılmasını önerdi…
Hükümet yapay zeka güvenlik organları
Hükümetlerin yapay zeka güvenlik önlemleri konusunda iş birliği yapması gerekiyor. Bilim insanlarının fikirlerinden bazıları, ülkeleri sınırları içindeki yapay zeka olaylarına ve risklere yanıt veren belirli bir yapay zeka otoritesi geliştirmeye teşvik etmeyi içeriyor. Bu otoritelerin birbirleriyle iş birliği yapması gerekiyor ve uzun vadede, dünya için risk oluşturan yapay zeka modellerinin geliştirilmesini önlemek için yeni bir uluslararası organın oluşturulması öneriliyor.
Mektupta, “Bu organ, devletlerin model kaydı, ifşa ve tetikleyiciler dahil olmak üzere asgari düzeyde etkili ön güvenlik önlemlerini benimsemesini ve uygulamasını sağlayacaktır” ifadeleri yer alıyor.
Geliştirici yapay zeka güvenlik taahhütleri
Bir diğer fikir de geliştiricilerin, kırmızı çizgileri aşmayacaklarına dair söz vererek modellerinin güvenliğini garanti altına alma konusunda bilinçli olmalarını gerektiriyor.
Geliştiricilerin, geçen yıl Pekin'de düzenlenen bir toplantıda üst düzey bilim insanlarının yaptığı bir açıklamada belirtildiği gibi, ‘otonom olarak çoğalabilen, gelişebilen, güç arayan veya yaratıcılarını aldatabilen veya kitle imha silahları üretmeyi ve siber saldırılar düzenlemeyi mümkün kılan’ yapay zeka yaratmamaya yemin etmeleri gerekiyor.
Yapay zeka özelinde bağımsız araştırma ve teknoloji kontrolleri
Bir diğer öneri ise, hükümetler, hayırseverler ve şirketler tarafından finanse edilen ve yapay zeka üzerinde daha iyi teknolojik kontroller geliştirmeye yardımcı olmak için bağımsız araştırmalara sponsor olacak bir dizi küresel yapay zeka güvenlik ve doğrulama fonu oluşturmak olarak öne çıkıyor.
Hükümetlere yapay zeka güvenliği konusunda harekete geçmeleri çağrısında bulunan uzmanlar arasında, Çin'in en başarılı teknoloji girişimcilerinden bazılarının akıl hocası olan Andrew Yao, dünyada en çok alıntı yapılan bilgisayar bilimcilerinden biri olan Yoshua Bengio ve OpenAI'nin kurucu ortağı ve eski baş bilim insanı Ilya Sutskever'e ders veren ve Google'da makine öğrenimi üzerine on yıl çalışan Geoffrey Hinton da dahil olmak üzere üç Turing ödülü sahibi yer alıyor.
İş birliği ve yapay zeka etiği
Bilim insanları imzaladıkları mektupta, yapay zeka konusunda halihazırda var olan uluslararası iş birliğini, örneğin ABD ve Çin liderlerinin Cenevre'de yapay zeka risklerini görüşmek üzere Mayıs ayında yaptığı toplantıyı övüyor ancak yine de daha fazla iş birliğine ihtiyaç olduğunun altını çiziyor.
Bilim insanları, yapay zekanın geliştirilmesinin mühendisler için doktorlar veya avukatlar için geçerli olanlara benzer etik normlarla birlikte gelmesi gerektiğini savunuyor. Mektupta, hükümetlerin yapay zekayı heyecan verici yeni bir teknoloji olarak değil, 'küresel bir kamu malı' olarak düşünmesi gerektiği belirtiliyor.
Mektupta, “Toplu olarak, her an ortaya çıkabilecek felaket risklerini önlemek için hazırlanmalıyız” ifadeleri yer alıyor.
Microsoft ve ortaklarından yapay zeka hamlesi
AB yapay zekaya ilişkin ilk uluslararası sözleşmeyi imzaladı
Dev şirketler yapay zekadan korkuyor
Yapay zekanın babasından korkutan uyarı: İşsizlik ve eşitsizlik artacak
Yapay zekanın kötüye kullanımı: Olay sayısı 26 kat arttı!
Ünlü fizikçiden gelecek tahminleri: Yapay zeka, ölümsüzlük, nükleer savaş...