Ana Sayfa Teknoloji 28 Haziran 2023 75 Görüntüleme

“Yapay zekayı yapay zekayla eğitmeyin”

ChatGPT gibi büyük dil modelleri (large language models/LLM’ler) internette hızla yaygınlaşırken, birçok kullanıcı yapay zekayla oluşturulan metin ve görsellerden meydana gelen yepyeni bir ekosistem yaratmak için bu teknolojiyi benimsedi.

Ancak henüz hakem denetiminden geçmemiş yeni bir çalışmaya göre, bu tür yapay zeka sistemlerinden elde edilen çıktı verilerinin sonraki nesil yapay zeka modellerinin de eğitiminde kullanılması, “geri dönüşü olmayan bozukluklara” ve çöp içeriğe sebebiyet verebilir.
 

ChatGPT gibi yapay zeka modelleri, şimdiye kadar çoğunluğu insan üretimi olan internet platformlarından edinilen muazzam miktarlarda veriyle eğitiliyor.

Ancak yapay zekanın bu tür modelleri kullanarak ürettiği veri internette giderek daha fazla yer kaplıyor.

Aralarında Birleşik Krallık’taki Oxford Üniversitesi’nden isimlerin de bulunduğu araştırmacılar, yapay zekaların art arda birkaç nesil boyunca birbirini eğitmesi halinde ne olacağını anlamaya çalıştı.

Araştırmacılar, LLM’lerin internette içerik yayımlamak için yaygın ölçekte kullanımının “LLM’leri eğitmek için toplanan veriyi kirleteceğini” ve “model çöküşüne” yol açacağını buldu.

Bilim insanları, ön baskısı arXiv’de yayımlanan çalışmada “Diğer modellerin ürettiği veriden öğrenimin model çöküşüne yol açabileceğini keşfettik. Bu, modellerin zaman içinde temel gerçek veri dağılımını unuttuğu bozucu bir süreç” diye yazdı.

Yeni bulgular, LLM’lerin eğitiminde bir “ilk hamle avantajı” bulunduğunu ortaya koyuyor.

Bilim insanları bu değişimi, yapay zeka modelleri insan bestecilerin yarattığı ve insan müzisyenlerin çaldığı müzik üzerinde eğitildiğinde yaşananlara benzetiyor. Elde edilen yapay zeka çıktısı daha sonra diğer modelleri eğitiyor ve bu durum müzik kalitesinin düşmesine yol açıyor.

Sonraki nesil yapay zeka modelleri, kaynaklarında daha düşük kalitede veriyle karşılaşmaları olasılığı sebebiyle, bilim insanlarının “veri zehirlenmesi” adını verdiği bir süreçte bilgiyi hatalı bilgi ekleyerek yanlış yorumlamaya başlayabilir.

Araştırmacılar, veri zehirlenmesi yaşanabilecek ölçeğin LLM’lerin devreye girmesi sonrası büyük çapta değiştiği uyarısında bulundu.

Bilim insanları, orijinal veri korunmuş bile olsa, sadece birkaç veri yinelemesinin esaslı bozulmalara yol açabileceğini söyledi.

Bu da zaman içinde hataların artmasına yol açarak, üretilen verilerden öğrenen modellerin gerçekliği yanlış anlamasına yol açabilir.

Araştırmacılar, “Bu da modelin temeldeki öğrenme görevini yanlış algılamasına neden oluyor” dedi.

ALINTI KAYNAK: https://www.muhalif.com.tr/haber/bilim-insanlari-uyardi-yapay-zekayi-yapay-zekayla-egitmeyin-146478

Yorumlar

deneme bonusu veren siteler bursa escort bursa escort maltepe escort ataşehir escort pendik escort kartal escort ataehir escort kurtköy escort şili escort istanbul escort bakrky escort mecidiyeky escort işli escort