Türkiye Kurumsal Yatırımcı Yöneticileri Derneği (TKYD), 2019 yılında Emeklilik ve Yatırım Fonları performanslarını ve fonlara artan ilgiyi açıklıyor. 06 Şubat 2020...
Hisse | Fiyat | Değişim(%) | Piyasa Değeri |
---|
E-posta listemize kayıt olun, en son haberler adresinize gelsin.
FINANSGUNDEM.COM - DIŞ HABERLER SERVİSİ
Yapay zeka, herkes tarafından yakından takip edilen en popüler gelişmelerin başında geliyor. Yapılan çalışmalar birçok kişiyi heyecanlandıran olumlu sonuçlar içerse de, yapay zekanın yaratacağı olası tehlikeler de endişe verici boyutlara ulaşıyor.
Finansgundem.com’un derlediği bilgilere göre, içlerinde milyarder yatırımcı Elon Musk’ın da bulunduğu ve yapay zeka alanında çalışan 1.000'den fazla teknoloji lideri, araştırmacı ve uzmanın Mart ayı sonlarında yapay zeka (Artificial Intelligence - AI) teknolojileri için 'toplum ve insanlık için derin riskler sunar’ uyarısıyla yayınladıkları erteleme çağrısı, bu tehlikelerin tam olarak ne olduğu ve ne derece ciddiye alınması gerektiği konusunda merak uyandırdı. New York Times’tan Pablo Delcan’ın haberinde uzmanlar, bu tehlikelerin neler olduğunu ve hangi boyutta ciddiye alınması gerektiğini aktarıyor.
Moratoryum çağrısı
Yapay zeka geliştirme konusunda bir moratoryum çağrısı yapan yakın tarihli bir mektup, gerçek tehditleri spekülasyonla harmanlıyor. Ancak uzmanlar arasında endişe artıyor. Mart ayı sonlarında, yapay zeka alanında ve çevresinde çalışan 1.000'den fazla teknoloji lideri, araştırmacı alanında birçok uzman, yapay zeka teknolojilerinin 'toplum ve insanlık için derin riskler’ sunduğunu ortaya koydu.
Tesla CEO'su ve Twitter'ın sahibi Elon Musk'ın da aralarında bulunduğu grup, yapay zeka laboratuvarlarını, teknolojinin arkasındaki tehlikeleri daha iyi anlayabilmek amacıyla, sistem geliştirilmelerini altı ay süreyle durduracaklarını açıkladı. Duyuruda şöyle denildi: “Güçlü yapay zeka sistemler ancak etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir.”
Şu an için 27.000'den fazla imzası olan mektup oldukça kısaydı. Mektubun arkasındaki bazı isimlerin yapay zeka ile çelişkili bir ilişkisi var gibi görünüyordu. Örneğin Elon Musk her ne kadar yapay zeka çalışmalarına ara verme önerisini getirse de kendi yapay zeka start-up’ını kuruyor ve söz konusu mektubu yazan kuruluşun birincil bağışçılarından biri konumunda bulunuyor.
Ancak mektup, yapay zeka geliştiricileri arasında artan bir endişeyi temsil ediyor. Uzmanlar, en yeni sistemlerin, özellikle de San Francisco'daki startup OpenAI tarafından sunulan sohbet robotu GPT-4'ün topluma zarar verebileceğini söylüyor. Uzmanlar aynı zamanda gelecekteki sistemlerin daha da tehlikeli olacağına inanıyor.
Bazı riskler gerçekten de şimdiden kendini gösteriyor. Diğer risklerin ise aylarca hatta yıllarca gerçekleşmeme olasılığı bulunuyor. Bahsedilen risklerin birçoğunun ise varsayımdan ibaret olduklarını söylemek zor değil.
Montreal Üniversitesi'nde yapay zeka araştırmacısı Profesör Yoshua Bengio, “Çok güçlü yapay zeka sistemleriyle nelerin yanlış gidebileceğini anlama yeteneğimiz oldukça zayıf. Bu yüzden çok dikkatli olmalıyız” şeklinde konuşuyor.
Endişelerin nedeni ne?
Dr. Bengio, mektubu imzalayan belki de en önemli kişi. Yakın zamana kadar Google'da araştırmacı olan Geoffrey Hinton ve şimdi Facebook'un sahibi Meta'da yapay zeka alanında çalışan bilim adamı Yann LeCun ile çalışan Bengio, son kırk yılını GPT-4 gibi sistemleri çalıştıran teknolojiyi geliştirmekle geçirdi. 2018'de araştırmacılar, sinir ağları üzerindeki çalışmalarından dolayı genellikle bilgisayar programlamanın Nobel Ödülü olarak anılan Turing Ödülü'nü aldı.
Bir sinir ağı, verileri analiz ederek becerileri öğrenen matematiksel bir sistem. Yaklaşık beş yıl önce Google, Microsoft ve OpenAI gibi şirketler, büyük dil modelleri (Large Language Models - L.L.M.) adı verilen büyük miktarda dijital metinden öğrenilen sinir ağları oluşturmaya başladı.
L.L.M.'ler bu metindeki kalıpları saptayarak, blog gönderileri, şiirler ve bilgisayar programları dahil olmak üzere kendi başlarına metin oluşturmayı öğrenebiliyor. Hatta bir sohbet de sürdürebiliyor.
Bu teknoloji, bilgisayar programcılarının, yazarların ve diğer çalışanların fikir üretmesine ve işleri daha hızlı yapmasına yardımcı olabiliyor. Ancak Dr. Bengio ve diğer uzmanlar, L.L.M.'lerin istenmeyen ve beklenmedik davranışları öğrenebileceği konusunda da uyarıda bulunuyor. Bu sistemler doğru olmayan, önyargılı ve aksi takdirde zehirli bilgiler üretebiliyor. GPT-4 gibi sistemler, gerçekleri yanlış anlayabiliyor ve bilgileri uydurabiliyor.
Şirketler bu sorunlar üzerinde çalışıyor. Ancak Dr. Bengio gibi uzmanlar, araştırmacılar bu sistemleri daha güçlü hale getirdikçe, sistemlerin yeni riskler getireceğinden endişe ediyor.
Kısa vadeli risk: Dezenformasyon
Bu sistemler, bilgileri tam bir güvenle elde ediyor ve üretiyormuş gibi algılandığından, bunları kullanırken gerçeği kurgudan ayırmak zor olabiliyor. Uzmanlar, insanların tıbbi tavsiye, duygusal destek ve karar vermek için kullandıkları ham bilgiler için bu sistemlere güvenmelerinden endişe ediyor. Arizona Eyalet Üniversitesi'nde bilgisayar bilimi profesörü olan Subbarao Kambhampati, “Bu sistemlerin onlara verdiğiniz herhangi bir görevde doğru şekilde davranacağının garantisi yok” diyor.
Uzmanlar, insanların dezenformasyon yaymak için bu sistemleri kötüye kullanacağından da endişe ediyor. Sistemler, insan benzeri yollarla sohbet edebildikleri için şaşırtıcı derecede ikna edici olabiliyor. Bengio, “Artık bizimle doğal dil aracılığıyla etkileşime girebilen sistemlerimiz var ve gerçekle sahteyi ayırt edemiyoruz” diyor.
Orta vadeli risk: İş kaybı
Uzmanlar, yeni yapay zekanın, birçok mesleğin sonunu getirebileceğini belirtiyor. Şu anda, GPT-4 gibi teknolojiler insan işçileri tamamlama eğiliminde sistemler olarak kabul ediliyor. Ancak OpenAI, internet içeriklerini yöneten kişiler de dahil olmak üzere GPT-4’ün bazı çalışanların yerini alabileceğini kabul ediyor.
Yapay zeka sistemleri henüz avukatların, muhasebecilerin veya doktorların çalışmalarını kopyalayamıyor ancak avukat yardımcılarının, kişisel asistanların ve tercümanların yerini rahatlıkla alabilecekleri görülüyor.
OpenAI araştırmacıları tarafından yazılan bir makale, ABD iş gücünün yüzde 80’inin iş görevlerinin en az yüzde 10'unun L.L.M.'lerden etkilenebileceğini ve çalışanların yüzde 19'unun görevlerinin en az yüzde 50'sinin bu teknolojiden olumsuz etkilenebileceğini tahmin ediyor.
Seattle'daki bir araştırma laboratuvarı olan Allen Yapay Zeka Enstitüsü'nün kurucu başkanı Oren Etzioni, “Ezberci işlerin ortadan kalkacağına dair bir gösterge var” diyor.
Uzun vadeli risk: Kontrolün kaybedilmesi
Mektubu imzalayan bazı kişiler de dahil olmak üzere uzmanlar, yapay zekanın kontrolümüzün dışına çıkabileceğine veya insanlığı yok edebileceğine inanıyor. Ancak birçok uzman bunun aşırı derecede abartılı olduğunu söylüyor.
Mektup, kendini insanlığa yönelik varoluşsal riskleri keşfetmeye adamış bir kuruluş olan Future of Life Institute'tan bir grup tarafından yazıldı. Uyarının sebebi ise yapay zeka sistemlerin genellikle analiz ettikleri çok büyük miktardaki veriden beklenmeyen davranışları öğrenmeleri halinde ciddi, beklenmeyen sorunlara yol açabilecekleri endişesi.
Şirketler ise L.L.M.'leri diğer internet hizmetlerine bağladığında, kendi bilgisayar kodlarını yazabilecekleri için bu sistemlerin beklenmedik güçler kazanabileceğinden endişe ediyor. Güçlü yapay zekaya izin verirlerse, sistemler kendi kodlarını çalıştırabileceğinden, geliştiricilerin yeni riskler yaratacağını düşünüyorlar.
Santa Cruz California Üniversitesi'nde teorik kozmolog ve fizikçi ve Future of Life Institute kurucu ortağı Anthony Aguirre, “Şu andan itibaren üç yıl sonra nerede olduğumuza dair basit bir tahmin yaptığınızda, her şeyin oldukça garip göründüğünü söylemeliyiz” diyor. Aguirre, “Daha az olası bir senaryoda işlerin gerçekten iyiye gittiği, gerçek bir yönetişimin olmadığı, bu sistemlerin düşündüğümüzden daha güçlü olduğu ortaya çıkarsa, o zaman işler gerçekten, gerçekten çılgına döner” şeklinde konuşuyor.
Dr. Etzioni ise varoluşsal riskten bahsetmenin varsayımsal olduğunun altını çiziyor. Ancak dezenformasyon başta olmak üzere diğer risklerin artık spekülasyon olmadığını söylüyor. Etzioni, “Şimdi bazı gerçek sorunlarımız var. Bunlar iyi niyetli sorunlar ve bazı sorumlu tepkiler gerektiriyorlar. Bu nedenle, düzenleme ve mevzuat değişikliği gerektirebilirler” diyor.
Yapay zeka devreye girdi eğitimleri tamamlama oranı yüzde 75 arttı
'Yapay zekanın babası' Google'dan istifa etti: Yaptığım işten pişmanım!
İtalya'da yapay zeka sohbet robotu ChatGPT'ye erişim engeli kaldırıldı
ABD'den, yapay zeka suistimaline karşı sıkı önlem planı
"Yapay zeka Nostradamus"dan gelecek ile ilgili 7 kehanet
Yapay zeka röportajı işinden etti
Finansingundemi.com’da yer alan bilgi, yorum ve tavsiyeleri yatırım danışmanlığı kapsamında değildir. Yatırım danışmanlığı hizmeti; aracı kurumlar, portföy yönetim şirketleri, mevduat kabul etmeyen bankalar ile müşteri arasında imzalanacak yatırım danışmanlığı sözleşmesi çerçevesinde sunulmaktadır. Burada yer alan yorum ve tavsiyeler, yorum ve tavsiyede bulunanların kişisel görüşlerine dayanmaktadır. Bu görüşler mali durumunuz ile risk ve getiri tercihlerinize uygun olmayabilir. Bu nedenle, sadece burada yer alan bilgilere dayanılarak yatırım kararı verilmesi beklentilerinize uygun sonuçlar doğurmayabilir. Burada yer alan bilgiler, güvenilir olduğuna inanılan halka açık kaynaklardan elde edilmiş olup bu kaynaklardaki bilgilerin hata ve eksikliğinden ve ticari amaçlı işlemlerde kullanılmasından doğabilecek zararlardan www.finansingundemi.com ve yöneticileri hiçbir şekilde sorumluluk kabul etmemektedir. Burada yer alan görüş ve düşüncelerin www.finansingundemi.com ve yönetimi için hiçbir bağlayıcılığı yoktur. BİST isim ve logosu “koruma marka belgesi” altında korunmakta olup izinsiz kullanılamaz, iktibas edilemez, değiştirilemez. BİST ismi altında açıklanan tüm bilgilerin telif hakları tamamen BİST’e ait olup, tekrar yayınlanamaz.