Google ve Stanford Araştırmacılarından İnsan Davranışlarını Taklit Eden Yapay Zeka Çalışması
Google ve Stanford araştırmacıları, yalnızca iki saat süren bir görüşme ile insan davranışlarını yüzde 85 doğruluk oranıyla taklit edebilen bir yapay zeka modeli oluşturmayı başardı. Araştırma, insanların davranışlarını ve düşünce yapılarını analiz etmek için yapay zeka destekli jeneratif ajanların kullanılabileceğini gösteren yeni bir dönemin kapılarını aralıyor.
Araştırmanın Detayları
Stanford Üniversitesi araştırmacıları, 1.052 katılımcıyı iki saatlik görüşmeler için davet ederek her birine 60 dolar ödeme yaptı. Görüşmeler, katılımcıların hayat hikayelerini anlatmalarıyla başladı ve yaklaşık 6.491 kelimelik transkriptlerle sonuçlandı. Bu veriler, katılımcıların düşünce yapılarını ve davranışlarını taklit eden jeneratif yapay zeka modellerine dönüştürüldü. Araştırma kapsamında kullanılan yapay zeka modelleri, katılımcıların davranışlarını yüzde 85 oranında doğru bir şekilde yansıttı.

Araştırma, Stanford Üniversitesi ve Google’ın DeepMind yapay zeka laboratuvarı tarafından yürütülen Generative Agent Simulations of 1,000 People adlı bir proje çerçevesinde gerçekleştirildi. Bu tür bir yapay zeka teknolojisinin, kamu politikaları ve işletme stratejileri geliştirme sürecinde odak grupları ve anketlerin yerini alabileceği öne sürülüyor.
🔸Yapay Zeka Tarihinde Oyunun Kurallarını Değiştiren 12 Olay
Yapay Zeka Modelleri Nasıl Çalışıyor?
Görüşmelerde kullanılan sorular, katılımcıların sosyal, ekonomik ve politik görüşlerinin yanı sıra demografik bilgilerini içeren detaylı bir profil oluşturmayı amaçladı. Katılımcılar, Amerikan Sesleri Projesi’nin (American Voices Project) metodolojisinden uyarlanmış bir dizi soru ile yönlendirildi. Her bir görüşme, Büyük Beş Kişilik Envanteri (Big Five Personality Inventory) ve Genel Sosyal Anket (General Social Survey) gibi araçlarla test edilerek modelin doğruluğu ölçüldü.

Araştırmacılar ayrıca ekonomik oyunlar kullanarak yapay zeka modellerinin insan davranışlarını taklit etme yeteneğini test etti. Örneğin, Mahkumun İkilemi (Prisoner’s Dilemma) ve Diktatör Oyunu (The Dictator’s Game) gibi stratejik karar alma süreçlerini içeren oyunlarda yapay zeka modelleri, insan katılımcılara kıyasla yüzde 60 doğruluk oranı ile performans gösterdi.
🔸John McCarthy ve Yapay Zeka
Endişeler ve Olası Kullanım Alanları
Araştırma, yapay zeka teknolojisinin insan davranışlarını daha iyi anlamak ve modellemek için sunduğu olanakları gösterirken, bazı etik soruları da gündeme getiriyor. Özellikle yapay zekanın yanlış amaçlarla kullanılması riski, uzmanlar arasında ciddi endişelere yol açıyor. Sosyal medya verileri ve halka açık bilgiler kullanılarak oluşturulabilecek yapay zeka modelleri, kişisel bilgilerin kötüye kullanılma potansiyelini artırabilir.
Araştırmanın sonuçları, bireysel ve toplumsal davranışları incelemek, yeni politikalar geliştirmek ve karmaşık sosyal teoriler oluşturmak için güçlü bir araç sunuyor. Ancak bu tür bir teknolojinin etik ve hukuki sınırlarının netleştirilmesi, olası kötüye kullanım durumlarının önüne geçmek için büyük önem taşıyor.