<
BASIN TOPLANTISI - ETKİNLİK - KONFERANS
Basın Daveti Türkiye Kurumsal Yatırımcı Yöneticileri Derneği 06 Şubat 2020, 09:30

Türkiye Kurumsal Yatırımcı Yöneticileri Derneği (TKYD), 2019 yılında Emeklilik ve Yatırım Fonları performanslarını ve fonlara artan ilgiyi açıklıyor. 06 Şubat 2020...

Tüm Etkinlikleri Göster
BANKA HİSSELERİ
Hisse Fiyat Değişim(%) Piyasa Değeri

E-posta listemize kayıt olun, en son haberler adresinize gelsin.

Ana SayfaTeknolojiYapay zeka gerçekten tehlikeli mi?----

Yapay zeka gerçekten tehlikeli mi?

Yapay zeka gerçekten tehlikeli mi?
02 Mayıs 2023 - 16:45 www.finansingundemi.com

Yapay zeka geliştirme konusunda kısa süre önce yapılan bir moratoryum çağrısı gerçek tehditleri spekülasyonla harmanlasa da, uzmanlar arasında endişe uyandırıyor.

FINANSGUNDEM.COM - DIŞ HABERLER SERVİSİ

Yapay zeka, herkes tarafından yakından takip edilen en popüler gelişmelerin başında geliyor. Yapılan çalışmalar birçok kişiyi heyecanlandıran olumlu sonuçlar içerse de, yapay zekanın yaratacağı olası tehlikeler de endişe verici boyutlara ulaşıyor.

Finansgundem.com’un derlediği bilgilere göre, içlerinde milyarder yatırımcı Elon Musk’ın da bulunduğu ve yapay zeka alanında çalışan 1.000'den fazla teknoloji lideri, araştırmacı ve uzmanın Mart ayı sonlarında yapay zeka (Artificial Intelligence - AI) teknolojileri için  'toplum ve insanlık için derin riskler sunar’ uyarısıyla yayınladıkları erteleme çağrısı, bu tehlikelerin tam olarak ne olduğu ve ne derece ciddiye alınması gerektiği konusunda merak uyandırdı. New York Times’tan Pablo Delcan’ın haberinde uzmanlar, bu tehlikelerin neler olduğunu ve hangi boyutta ciddiye alınması gerektiğini aktarıyor.

Moratoryum çağrısı

Yapay zeka geliştirme konusunda bir moratoryum çağrısı yapan yakın tarihli bir mektup, gerçek tehditleri spekülasyonla harmanlıyor. Ancak uzmanlar arasında endişe artıyor. Mart ayı sonlarında, yapay zeka alanında ve çevresinde çalışan 1.000'den fazla teknoloji lideri, araştırmacı alanında birçok uzman, yapay zeka teknolojilerinin 'toplum ve insanlık için derin riskler’ sunduğunu ortaya koydu.

Tesla CEO'su ve Twitter'ın sahibi Elon Musk'ın da aralarında bulunduğu grup, yapay zeka laboratuvarlarını, teknolojinin arkasındaki tehlikeleri daha iyi anlayabilmek amacıyla, sistem geliştirilmelerini altı ay süreyle durduracaklarını açıkladı. Duyuruda şöyle denildi: “Güçlü yapay zeka sistemler ancak etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir.”

Şu an için 27.000'den fazla imzası olan mektup oldukça kısaydı. Mektubun arkasındaki bazı isimlerin yapay zeka ile çelişkili bir ilişkisi var gibi görünüyordu. Örneğin Elon Musk her ne kadar yapay zeka çalışmalarına ara verme önerisini getirse de kendi yapay zeka start-up’ını kuruyor ve söz konusu mektubu yazan kuruluşun birincil bağışçılarından biri konumunda bulunuyor.

Ancak mektup, yapay zeka geliştiricileri arasında artan bir endişeyi temsil ediyor. Uzmanlar, en yeni sistemlerin, özellikle de San Francisco'daki startup OpenAI tarafından sunulan sohbet robotu GPT-4'ün topluma zarar verebileceğini söylüyor. Uzmanlar aynı zamanda gelecekteki sistemlerin daha da tehlikeli olacağına inanıyor.

Bazı riskler gerçekten de şimdiden kendini gösteriyor. Diğer risklerin ise aylarca hatta yıllarca gerçekleşmeme olasılığı bulunuyor. Bahsedilen risklerin birçoğunun ise varsayımdan ibaret olduklarını söylemek zor değil.

Montreal Üniversitesi'nde yapay zeka araştırmacısı Profesör Yoshua Bengio, “Çok güçlü yapay zeka sistemleriyle nelerin yanlış gidebileceğini anlama yeteneğimiz oldukça zayıf. Bu yüzden çok dikkatli olmalıyız” şeklinde konuşuyor.

Endişelerin nedeni ne?

Dr. Bengio, mektubu imzalayan belki de en önemli kişi. Yakın zamana kadar Google'da araştırmacı olan Geoffrey Hinton ve şimdi Facebook'un sahibi Meta'da yapay zeka alanında çalışan bilim adamı Yann LeCun ile çalışan Bengio, son kırk yılını GPT-4 gibi sistemleri çalıştıran teknolojiyi geliştirmekle geçirdi. 2018'de araştırmacılar, sinir ağları üzerindeki çalışmalarından dolayı genellikle bilgisayar programlamanın Nobel Ödülü olarak anılan Turing Ödülü'nü aldı.

Bir sinir ağı, verileri analiz ederek becerileri öğrenen matematiksel bir sistem. Yaklaşık beş yıl önce Google, Microsoft ve OpenAI gibi şirketler, büyük dil modelleri (Large Language Models - L.L.M.) adı verilen büyük miktarda dijital metinden öğrenilen sinir ağları oluşturmaya başladı.

L.L.M.'ler bu metindeki kalıpları saptayarak, blog gönderileri, şiirler ve bilgisayar programları dahil olmak üzere kendi başlarına metin oluşturmayı öğrenebiliyor. Hatta bir sohbet de sürdürebiliyor.

Bu teknoloji, bilgisayar programcılarının, yazarların ve diğer çalışanların fikir üretmesine ve işleri daha hızlı yapmasına yardımcı olabiliyor. Ancak Dr. Bengio ve diğer uzmanlar, L.L.M.'lerin istenmeyen ve beklenmedik davranışları öğrenebileceği konusunda da uyarıda bulunuyor. Bu sistemler doğru olmayan, önyargılı ve aksi takdirde zehirli bilgiler üretebiliyor. GPT-4 gibi sistemler, gerçekleri yanlış anlayabiliyor ve bilgileri uydurabiliyor.

Şirketler bu sorunlar üzerinde çalışıyor. Ancak Dr. Bengio gibi uzmanlar, araştırmacılar bu sistemleri daha güçlü hale getirdikçe, sistemlerin yeni riskler getireceğinden endişe ediyor.

Kısa vadeli risk: Dezenformasyon

Bu sistemler, bilgileri tam bir güvenle elde ediyor ve üretiyormuş gibi algılandığından, bunları kullanırken gerçeği kurgudan ayırmak zor olabiliyor. Uzmanlar, insanların tıbbi tavsiye, duygusal destek ve karar vermek için kullandıkları ham bilgiler için bu sistemlere güvenmelerinden endişe ediyor. Arizona Eyalet Üniversitesi'nde bilgisayar bilimi profesörü olan Subbarao Kambhampati, “Bu sistemlerin onlara verdiğiniz herhangi bir görevde doğru şekilde davranacağının garantisi yok” diyor.

Uzmanlar, insanların dezenformasyon yaymak için bu sistemleri kötüye kullanacağından da endişe ediyor. Sistemler, insan benzeri yollarla sohbet edebildikleri için şaşırtıcı derecede ikna edici olabiliyor. Bengio, “Artık bizimle doğal dil aracılığıyla etkileşime girebilen sistemlerimiz var ve gerçekle sahteyi ayırt edemiyoruz” diyor.

Orta vadeli risk: İş kaybı

Uzmanlar, yeni yapay zekanın, birçok mesleğin sonunu getirebileceğini belirtiyor. Şu anda, GPT-4 gibi teknolojiler insan işçileri tamamlama eğiliminde sistemler olarak kabul ediliyor. Ancak OpenAI, internet içeriklerini yöneten kişiler de dahil olmak üzere GPT-4’ün bazı çalışanların yerini alabileceğini kabul ediyor.

Yapay zeka sistemleri henüz avukatların, muhasebecilerin veya doktorların çalışmalarını kopyalayamıyor ancak avukat yardımcılarının, kişisel asistanların ve tercümanların yerini rahatlıkla alabilecekleri görülüyor.

OpenAI araştırmacıları tarafından yazılan bir makale, ABD iş gücünün yüzde 80’inin iş görevlerinin en az yüzde 10'unun L.L.M.'lerden etkilenebileceğini ve çalışanların yüzde 19'unun görevlerinin en az yüzde 50'sinin bu teknolojiden olumsuz etkilenebileceğini tahmin ediyor.

Seattle'daki bir araştırma laboratuvarı olan Allen Yapay Zeka Enstitüsü'nün kurucu başkanı Oren Etzioni, “Ezberci işlerin ortadan kalkacağına dair bir gösterge var” diyor.

Uzun vadeli risk: Kontrolün kaybedilmesi

Mektubu imzalayan bazı kişiler de dahil olmak üzere uzmanlar, yapay zekanın kontrolümüzün dışına çıkabileceğine veya insanlığı yok edebileceğine inanıyor. Ancak birçok uzman bunun aşırı derecede abartılı olduğunu söylüyor.

Mektup, kendini insanlığa yönelik varoluşsal riskleri keşfetmeye adamış bir kuruluş olan Future of Life Institute'tan bir grup tarafından yazıldı. Uyarının sebebi ise yapay zeka sistemlerin genellikle analiz ettikleri çok büyük miktardaki veriden beklenmeyen davranışları öğrenmeleri halinde ciddi, beklenmeyen sorunlara yol açabilecekleri endişesi.

Şirketler ise L.L.M.'leri diğer internet hizmetlerine bağladığında, kendi bilgisayar kodlarını yazabilecekleri için bu sistemlerin beklenmedik güçler kazanabileceğinden endişe ediyor. Güçlü yapay zekaya izin verirlerse, sistemler kendi kodlarını çalıştırabileceğinden, geliştiricilerin yeni riskler yaratacağını düşünüyorlar.

Santa Cruz California Üniversitesi'nde teorik kozmolog ve fizikçi ve Future of Life Institute kurucu ortağı Anthony Aguirre, “Şu andan itibaren üç yıl sonra nerede olduğumuza dair basit bir tahmin yaptığınızda, her şeyin oldukça garip göründüğünü söylemeliyiz” diyor. Aguirre, “Daha az olası bir senaryoda işlerin gerçekten iyiye gittiği, gerçek bir yönetişimin olmadığı, bu sistemlerin düşündüğümüzden daha güçlü olduğu ortaya çıkarsa, o zaman işler gerçekten, gerçekten çılgına döner” şeklinde konuşuyor.

Dr. Etzioni ise varoluşsal riskten bahsetmenin varsayımsal olduğunun altını çiziyor. Ancak dezenformasyon başta olmak üzere diğer risklerin artık spekülasyon olmadığını söylüyor. Etzioni, “Şimdi bazı gerçek sorunlarımız var. Bunlar iyi niyetli sorunlar ve bazı sorumlu tepkiler gerektiriyorlar. Bu nedenle, düzenleme ve mevzuat değişikliği gerektirebilirler” diyor.

Yapay zeka devreye girdi eğitimleri tamamlama oranı yüzde 75 arttı

 

'Yapay zekanın babası' Google'dan istifa etti: Yaptığım işten pişmanım!

 

İtalya'da yapay zeka sohbet robotu ChatGPT'ye erişim engeli kaldırıldı

 

ABD'den, yapay zeka suistimaline karşı sıkı önlem planı

 

"Yapay zeka Nostradamus"dan gelecek ile ilgili 7 kehanet

 

Yapay zeka röportajı işinden etti

 

YORUMLAR (0)
:) :( ;) :D :O (6) (A) :'( :| :o) 8-) :-* (M)