Yeni bir araştırma, ileri seviye yapay zeka modeli ChatGPT'nin insanlara özgü karar alma hatalarına ve önyargılara sahip olduğunu ortaya koydu. INFORMS dergisi Manufacturing & Service Operations Management'ta yayımlanan çalışma, yapay zekanın güvenilirliği konusunda önemli soruları gündeme getiriyor. Araştırmacılar, ChatGPT'yi 18 farklı önyargı testine tabi tuttular ve sonuçlar dikkat çekiciydi. Model, testlerin yaklaşık yarısında aşırı güven, kumarbaz yanılgısı ve belirsizlikten kaçınma gibi insan bilişsel tuzaklarına düştü. Bu durum, yapay zekanın mükemmel olmadığını ve insan benzeri hatalara açık olduğunu gösteriyor. Beklendiği gibi matematik ve mantık problemlerinde başarılı performans sergileyen ChatGPT, öznel yargı gerektiren durumlarda ise zorlandı. Riskli ancak potansiyel olarak daha karlı seçenekleri tercih etmek yerine, temkinli bir yaklaşım sergiledi ve kendi doğruluğunu abarttı. Hatta daha gelişmiş GPT-4 modeli bile yargı gerektiren görevlerde önyargılar sergiledi. Bu durum, yapay zekanın insan verilerinden öğrenme sürecinde bu önyargıları da devraldığını gösteriyor.

Yapay Zeka'nın İnsan Benzeri Önyargıları

Uzmanlar, yapay zekanın "zihinsel kestirmeler" kullanarak insan gibi düşündüğünü belirtiyor. Western Üniversitesi'nden Yang Chen, yapay zekanın insan gibi düşündüğünü belirtirken, Queen's Üniversitesi'nden Anton Ovchinnikov, net cevaplı sorularda başarılı olduğunu ancak yargıda insan gibi hata yaptığını ifade ediyor. Bu durum, iş dünyasında işe alım, kredi onayı gibi kritik kararlar alan yapay zeka sistemlerinin güvenilirliği konusunda ciddi endişeler yaratıyor. Yapay zeka algoritmalarının eğitiminde kullanılan verilerin önyargılı olması, sistemlerin de önyargılı kararlar vermesine yol açıyor. Bu nedenle, yapay zeka sistemlerinin geliştirilmesinde ve kullanılmasında dikkatli olunması gerekiyor. Önyargılı verilerin etkisini azaltmak için çeşitli teknikler kullanılabilir, ancak bu konuda daha fazla araştırma yapılması gerekiyor.

Yapay Zeka için Etik Kurallar Gerekli mi?

Araştırma, yapay zekanın tarafsız bir karar verici olmaktan uzak olduğunu ve insan önyargılarını pekiştirme riskini taşıdığını gösteriyor. Bu nedenle, uzmanlar yapay zekanın bir çalışan gibi denetlenmesi ve etik kurallarla yönlendirilmesi gerektiğini savunuyor. McMaster Üniversitesi'nden Meena Andiappan, "Hatalı düşünceyi otomatikleştirmek yerine iyileştirmeliyiz" diyor. Yapay zekanın etkisinin giderek artmasıyla birlikte, düzenli denetim ve model geliştirme, onun insan hatalarını kopyalamaktansa gerçekten faydalı bir araç haline gelmesi için şart görünüyor. Bu bulgular, yapay zeka düzenlemeleri üzerinde çalışan hükümetler ve işletmeler için de bir uyarı niteliği taşıyor. Bu, yapay zeka teknolojisinin sorumlu bir şekilde kullanılması için önemli bir çağrıdır. Şirketlerin, yapay zeka sistemlerinin önyargılarını düzenli olarak değerlendirmesi ve bunları azaltmak için adımlar atması gerekmektedir.

ChatGPT ve Yapay Zeka Güvenilirliği

Sonuç olarak, bu araştırma ChatGPT'nin insan benzeri karar alma hataları yaptığını ve önyargılar sergilediğini gösteriyor. Matematikte başarılı, yargıda zayıf kalan yapay zeka, insan düşüncesini yansıtıyor. Uzmanlar, iş ve kamu yönetiminde kullanılan yapay zeka sistemlerinin denetlenmesi gerektiğini vurguluyor. Yapay zeka teknolojisi hızla gelişiyor ve hayatımızın birçok alanına entegre oluyor; bu nedenle, bu teknolojinin etik ve güvenilir bir şekilde kullanılmasını sağlamak için sürekli çaba göstermek son derece önemlidir. Gelecekte, yapay zeka sistemlerinin daha şeffaf, hesap verebilir ve adil olması için daha fazla araştırma ve geliştirmeye ihtiyaç duyulacaktır.