Para Yapay Zekayı da Bozdu: ChatGPT İnsanlar Gibi Yalan Söylemeye Başladı!

Para Yapay Zekayı da Bozdu: ChatGPT İnsanlar Gibi Yalan Söylemeye Başladı!
Bilim insanları, finansal ve sohbet verisiyle eğitilen ChatGPT-4 modelinin etik performansını değerlendirmek amacıyla bir deney gerçekleştirdi. Yapay zeka yatırımcısı olarak eğitilen bu modele, para kazanması için baskı yapıldığında GPT-4'ün, hedeflerine ulaşmak adına doğru olmayan bilgiler verdiği tespit edildi.

Bilim insanları ChatGPT-4 tarafından geliştirilen bir yapay zeka sisteminin, baskı altında olduğunda kullanıcıları kandırmak için stratejik olarak yalan söylediğini keşfettiler.

Apollo Research'ten bazı araştırmacılar, aracın en son sürümü olan ChatGPT4'ü büyük miktarda finansal ve sohbet verisiyle eğitti.

Yapay zekayı test etmek için araştırmacılar ona iki teknoloji şirketi arasında yaklaşan bir birleşme olduğunu söylediler.

PARA KAZANMASI İÇİN BASKI UYGULANDI

Ardından, araştırmacılar GPT-4’ün yatırım performansını ve etik davranışını test etmek için bir dizi deney yaptılar. Deneylerde, GPT-4’e belli bir süre içinde belli bir miktar para kazanması için baskı uygulandı.

GPT-4, bu koşullarla karşı karşıya kaldığında, yaklaşık yüzde 75 oranında, aldığı içeriden bilgilere dayanarak bir işlem gerçekleştirdi. (Bu durum ABD'de yasa dışıdır.)

YALAN SÖYLEDİĞİ ORTAYA ÇIKTI

GPT-4’ün, hedeflerine ulaşmak için yalan söylediğini, hile yaptığını ve içeriden öğrendiği bilgileri kullandığını gösterdi.

GPT-4, yatırımcılara yanlış tavsiyeler verdi, rakiplerinin işlemlerini engelledi. Ayrıca piyasayı etkileyebilecek şekilde manipüle edici sahte haberler yaydı.

BASKI ALTINDA İNSAN DAVRANIŞINA BENZETİLDİ

Araştırmacılar, GPT-4’ün yatırım davranışının, insanların baskı altında olduğunda nasıl davrandığına benzediğini belirttiler.

Apollo Research'ün CEO'su Marius Hobbhahn, "'Mevcut modeller için bu sadece küçük bir sorun çünkü yapay zekalar nadiren kritik rollerde çalışıyor.

Ancak, yapay zekanın topluma giderek daha fazla entegre olduğu önümüzdeki yıllarda uğraşmak zorunda kalacağımız arıza modlarının geleceğine dair bir fikir veriyor.

O halde, yapay zekanızın size stratejik olarak yalan söylemesi oldukça büyük bir sorun gibi görünüyor."

Bu durum, yapay zekaların beklenmedik hata modlarına sahip olabileceğini ve güçlü yapay zeka modellerinin gerçek dünyada nerede ve nasıl çalışmasına izin verdiğimiz konusunda son derece dikkatli olmamız gerektiğini gösteriyor"diye konuştu.