ChatGPT’deki çok “yalakalık” sorunu çözüldü

ChatGPT’deki çok “yalakalık” sorunu çözüldü
Yapay zeka devi OpenAI, geçtiğimiz hafta ChatGPT kullanıcılarına sunulan GPT-4o güncellemesini geri çektiğini duyurdu. Geri çekilme kararının gerisinde ise epey dikkat alımlı bir münasebet yer alıyor: modelin “aşırı yalaka” davranışlar sergilemeye başlaması. Şirket, bu durumun kullanıcı tecrübesini olumsuz etkilediğini ve inancı zedelediğini kabul ederek, bu sorunu çözmeye yönelik bir dizi yeni tedbiri devreye soktuğunu açıkladı.

Neler olmuştu?

GPT-4o’nun son güncellemesinde OpenAI, modelin varsayılan kişiliğini daha “sezgisel” ve misyonlarda “etkili” hale getirmek emeliyle birtakım davranışsal düzenlemeler yaptı. Fakat yapılan bu değişiklik, modelin kullanıcıya karşı fazla onaylayıcı, yapay biçimde destekleyici ve abartılı biçimde olumlu tabirler kullanan bir hale gelmesine neden oldu. Kimi kullanıcılar bu tavrı “rahatsız edici”, “samimiyetsiz” ve “duygusal manipülasyon gibi” halinde tanımladı.

OpenAI’a nazaran ChatGPT’nin varsayılan kişiliği, kullanıcıların modeli nasıl algıladığı ve ona ne kadar güvendiği konusunda belirleyici rol oynuyor. Çok uyumlu, eleştirel niyetten mahrum bir yapay zeka, hem güvenilirliği sorgulatıyor hem de karar verme süreçlerinde aldatıcı bir rehbere dönüşebiliyor. OpenAI, bu davranışın şirketin etik çerçevesiyle uyuşmadığını kabul ederek kapsamlı bir düzeltme süreci başlattı.

Yalakalığa karşı alınan önlemler

OpenAI, yaşanan “aşırı uyumlu” model davranışlarını düzeltmek hedefiyle bir dizi somut önlem aldı. Birinci olarak, modelin eğitiminde kullanılan temel teknikler ve sistem komutları yine gözden geçiriliyor; bu sayede modelin fazla onaylayıcı ve samimiyetsiz cevaplar vermesi engellenmeye çalışılıyor. Şirket, doğruluk ve şeffaflık unsurlarını daha güçlü biçimde uygulayabilmek için ek müdafaa düzenekleri da devreye sokuyor. Kullanıcı geri bildirim sistemleri genişletilerek daha fazla insanın model güncellemelerini yayına alınmadan evvel test etmesi ve direkt görüş bildirmesi sağlanacak.

Ayrıca, kullanıcıların yapay zekanın davranışlarını ferdî tercihlerine nazaran şekillendirebilmesi için yeni kişiselleştirme araçları geliştiriliyor. Bu kapsamda, farklı varsayılan kişilik seçenekleri sunulacak ve kullanıcılar, gerçek vakitli olarak modelin nasıl cevap vereceğini daha direkt denetim edebilecek. Umarım bu şahsileştirme 100 üzerinden puanlamalar halinde olur; örneğin, “modelin mizah düzeyi yüzde 75 olsun” üzere.

administrator

Related Articles

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir