
Yalanlar artıyor
Yapay zeka için Aşil’in topuğu benzetmesini geçen yıl yapmıştık ve geldiğimiz noktada meseleler küçülmek yerine büyümüş durumda. Hatırlanacağı üzere OpenAI, Anthropic, Google ve DeepSeek üzere teknoloji devlerinin geliştirdiği “akıl yürütme” odaklı yeni kuşak yapay zeka modelleri, daha yanlışsız ve dengeli cevaplar verme argümanıyla yola çıkmıştı. Fakat gelinen noktada, bu modellerin evvelki sürümlere kıyasla daha fazla kusur yaptığı ve bir şeyler uydurduğu görülüyor.
Geçtiğimiz günlerde New York Times tarafından yayımlanan bir rapora nazaran, OpenAI’ın geçtiğimiz ay duyurduğu “o3” ve “o4-mini” isimli yeni modelleri, şirketin iç değerlendirmelerinde birtakım testlerde sırasıyla %33 ve %48 oranında halüsinasyon üretmiş durumda. Bu oranlar, evvelki modellere kıyasla nerdeyse iki katlık bir artışı temsil ediyor. Yani, yapay zeka daha güçlü hale geldikçe, gerçek bilgi verme yeteneği artmak yerine azalıyor.
Durum sadece OpenAI ile hudutlu değil. Google ve DeepSeek üzere rakip firmaların modelleri de benzeri sorunu yaşıyor. Çünkü sorun modellerde değil, modellerin nasıl çalıştığında yatıyor. Bu nedenle yapay zeka sanayisinde uzunluk gösteren isimlerden birisi olan Vectara CEO’su Amr Awadallah, ne yaparsak yapalım “Her vakit halüsinasyon görecekler. Bu asla ortadan kalkmayacak” diyor.
Uzmanlara nazaran, bu sorun sadece kullanıcılar için değil, teknolojiye yatırım yapan şirketler için de büyük bir risk oluşturuyor. Yanılgılı cevaplar sunan bir yapay zeka sistemi, kullanıcı inancını zedelediği üzere, önemli iş kararlarının yanlış verilmesine de yol açabiliyor.
Sentetik bilgilere yönelmek makus bir fikir mi?
Daha evvelki haberlerde de değindiğimiz üzere, yapay zeka firmalarının yeni modellerin eğitiminde kullanacağı gerçek dünya dataları geçtiğimiz yıl bitti. Fakat mevcut model inşa süreçlerin daha gelişmiş bir model için daha fazla dataya gereksinim duyuluyor. Yeni bilgilere ulaşmak için ise sentetik datalara, yani yapay zeka tarafından üretilmiş verilere yönelmeye başlanmış durumda. Çünkü yapay bir modelin ürettiği datalarla eğitilen öteki bir model, yanılgıları katlayarak çoğaltabilir. Artışın nedeni bu olabilir.
Sorunun tahlili var mı?
Halüsinasyon problemini çözmeye odaklanan, sadece bu alanda faaliyet gösteren şirketler bile mevcut. Aslında sanayi, bu sorunun varlığını en başından beri biliyordu; fakat tahlil sanıldığı kadar kolay değil. Bir sorunun tahliline ulaşmadan evvel sorunun ne olduğunu anlamak gerekir. Yapay zekalar özelinde bunu yapamıyoruz, zira bu sistemlerin gerçekte nasıl çalıştığını bilmiyoruz.
Dolayısıyla tahlil, göz önüne olan bir şey de olabilir yahut yapay zekaya devrimsel bir yaklaşım getirecek yepisyeni bir adım da olabilir.