<
BASIN TOPLANTISI - ETKİNLİK - KONFERANS
Basın Daveti Türkiye Kurumsal Yatırımcı Yöneticileri Derneği 06 Şubat 2020, 09:30

Türkiye Kurumsal Yatırımcı Yöneticileri Derneği (TKYD), 2019 yılında Emeklilik ve Yatırım Fonları performanslarını ve fonlara artan ilgiyi açıklıyor. 06 Şubat 2020...

Tüm Etkinlikleri Göster
BANKA HİSSELERİ
Hisse Fiyat Değişim(%) Piyasa Değeri

E-posta listemize kayıt olun, en son haberler adresinize gelsin.

Ana SayfaTeknolojiYapay zeka ile ilgili şok açıklama: Saçmalığa dönüşüyor!----

Yapay zeka ile ilgili şok açıklama: Saçmalığa dönüşüyor!

Yapay zeka ile ilgili şok açıklama: Saçmalığa dönüşüyor!
25 Temmuz 2024 - 16:21 www.finansingundemi.com

Araştırmacılar, internetin yapay zeka tarafından üretilen içeriklerle dolması sonucu yapay zeka sistemlerinin saçmalığa dönüşebileceği konusunda uyardı.


Son yıllarda, OpenAI'ın ChatGPT'si gibi metin üreten yapay zeka sistemleri büyük ilgi gördü. Bu ilgi, birçok kişinin bu sistemler tarafından oluşturulan blog yazıları ve çeşitli içerikler yayımlamasına yol açtı. Sonuç olarak, internet giderek daha fazla yapay zeka üretimi içeriklerle doldu.

Ancak bu sistemlerin çoğu, eğitim için internetten alınan metinlere dayanıyor. Bu durum, yapay zekanın kendisi tarafından üretilen içeriklerle eğitildiği bir döngü oluşturabilir.

Yeni bir araştırma, bu döngünün yapay zeka araçlarını hızla anlamsız ve saçma içerikler üretmeye itebileceği konusunda uyarıyor. Bu uyarı, internetin giderek daha fazla otomatikleştiğini iddia eden daha geniş bir teorinin parçası.

Araştırma, sistemin hem içerik ürettiği hem de ürettiği içeriklerle eğitildiği döngünün sadece birkaç kez tekrarlanmasının, sistemin saçma içerikler üretmeye başlaması için yeterli olduğunu ortaya koydu. Örneğin, ortaçağ mimarisi hakkında metinler üreten bir sistem, dokuzuncu üretiminde kendini tekrarlayan bir kır tavşanı çeşitleri listesi oluşturdu.

Bu duruma "model çöküşü" deniyor. Araştırmacılar, yapay zeka sistemlerinin internet üzerinde daha yaygın kullanılmasıyla bu durumun artabileceğini belirtiyorlar.

Sistemler, ürettikleri verilerle eğitildikçe daha az yaygın olan verileri dışarıda bırakma eğilimindedir. Bu çalışmada yer almayan araştırmacı Emily Wenger, farklı köpek cinsleriyle eğitilen bir sistemi örnek vererek, veride golden retriever daha fazla olduğunda, sistemin sonunda diğer köpekleri dışarda bırakıp yalnızca saçmalık ürettiğini açıkladı.

Araştırmacılar, ChatGPT ve Google'ın Gemini'si gibi büyük dil modellerinde de benzer sonuçlar gözlemledi.

Bu durum, sadece sistemlerin işlevselliğini yitirmesi değil, aynı zamanda üretilen içeriklerdeki çeşitliliğin azalması açısından da sorun yaratabilir. Veri üretilip geri dönüştürüldükçe, sistemler dünyadaki farklılıkları yansıtmakta zorlanabilir ve bazı gruplar tamamen yok olabilir.

Araştırmacılar, makalelerinde, internetten büyük ölçekli verilerin temizlenmesinin önemine dikkat çekiyorlar. Bu durum, geçmişte veri kazımış şirketlerin avantajlı olabileceği anlamına da geliyor.

Bu sorun, yapay zeka çıktılarının filigranla işaretlenmesi ve otomatik sistemler tarafından tespit edilerek eğitim verilerinden çıkarılması gibi çeşitli yollarla çözülebilir. Ancak filigranların silinmesi kolay ve yapay zeka şirketlerinin filigran kullanmaya direnmesi gibi başka zorluklar da var.

"Yapay Zeka Modelleri Özyinelemeli Verilerle Eğitildiğinde Çöküyor" başlıklı çalışma, Nature dergisinde yayımlandı. (Independent Türkçe)

Enflasyonu yapay zeka mı yenecek?Enflasyonu yapay zeka mı yenecek?

 

E-ticarette yapay zekayla pazarlık dönemiE-ticarette yapay zekayla pazarlık dönemi

 

CFO’ların ‘yapay zeka’dan haberi yokCFO’ların ‘yapay zeka’dan haberi yok

 

YORUMLAR (0)
:) :( ;) :D :O (6) (A) :'( :| :o) 8-) :-* (M)