
Nasıl çalıştığını bilmediğimiz bir şeyi geliştiriyoruz
“The Urgency of Interpretability” başlıklı makalede Amodei, mevcut yapay zeka modellerinin nasıl karar verdiğini tam olarak anlayamamanın ciddi bir güvenlik riski oluşturduğunu söz ediyor. Amodei, “Bu sistemler iktisat, teknoloji ve ulusal güvenlik için mutlaka merkezi kıymete sahip olacak ve o kadar fazla özerklik kapasitesine sahip olacaklar ki, insanlığın nasıl çalıştıklarından büsbütün habersiz olmasının temelde kabul edilemez olduğunu düşünüyorum” sözleriyle durumu özetliyor.
Anthropic’in kurucularından Chris Olah’ın sözüne nazaran yapay zeka modelleri “inşa edilmekten çok büyütülüyor.” Araştırmacılar zeka düzeylerini artırabiliyor olsa da, bu gelişimin gerisindeki düzenekleri şimdi açıklayamıyorlar. Bu da yapay zekanın makul kararları neden aldığı, bir kelimeyi öbür bir söze nazaran neden tercih ettiği ya da çoklukla gerçek olmasına karşın neden orta sıra yanılgı yaptığı üzere bahislerde önemli bir bilgi boşluğuna işaret ediyor.
Örneğin, yakın geçmişte OpenAI, daha âlâ performans gösteren, lakin tıpkı vakitte öbür modellerine nazaran daha fazla hayal gören o3 ve o4-mini isimli yeni muhakeme modellerini yayınladı. Ayrıyeten firma, bu modellerin neden daha fazla halüsinasyon gördüğü konusunda da bir fikirlerinin olmadığının altını çizdi.
Bu durum aslında bizi korkutmalı. Evvelki haberlerimizle tekrara düşmek istemiyorum lakin Anthropic, yapay zekanın bu “kara kutusu” üzerinde çalışan, spesifik araştırmalar yapan nadide şirketlerden birisi. Birden fazla AI şirketi en azından kamu önünde bu mevzuyu derinlemesine araştırdıklarını söylemiyor bile.
Kısa bir süreç değil

Amodei, bu modellerin nasıl çalıştığını anlamadan AGI’ye (insan düzeyinde yapay zeka, yapay genel zeka) ulaşmanın tehlikeli olabileceğini söylüyor. Ek olarak Amodei’nin uzun vadeli vizyonu ise epey argümanlı: Yapay zeka modellerine adeta bir “beyin taraması” yapılması. Bu taramalar sayesinde modellerin dürüstlükten sapma eğilimi, güç kazanma isteği üzere tehlikeli eğilimleri evvelce tespit edilebilecek. Bu çeşit gelişmiş tahlil araçlarının geliştirilmesinin beş ila on yıl alabileceği öngörülüyor.
Anthropic’in CEO’su, makalesinde sırf kendi şirketine değil, kesime de bir davette bulunuyor. OpenAI ve Google DeepMind üzere devlerin yorumlanabilirlik araştırmalarına daha fazla kaynak ayırması gerektiğini vurgulayan Amodei, hükümetlere ise regülasyonlarla bu araştırmaları teşvik etme daveti yaptı.
Yapay zeka ve bilhassa derin öğrenme konusundaki çalışmalarla günümüz yapay zekaların doğmasında büyük hisse sahibi olan, bu hususta Nobel Fizik Ödülü’ni alan Geoffrey Hinton’ın kendisi de 2023’te bu ağların nasıl çalıştığını bilmediğini söylemişti. Aşağıdaki görüntüyü izlemenizi tavsiye ederim.