Oxford ve Google'dan yapay zeka uyarısı: İnsanları ortadan kaldırabilir

Oxford ve Google'dan yapay zeka uyarısı: İnsanları ortadan kaldırabilir
Ocford ve Google araştırmacılarına göre, gelişmiş yapay zeka formları Dünya'daki yaşam için varoluşsal bir tehlike yaratabilir.

Independent'ın haberine göre, Oxford Üniversitesi ve Google'ın yapay zeka bölümü DeepMind'dan araştırmacılar, gelişmiş yapay zeka formlarının "Dünya'daki yaşam için varoluşsal bir tehlike" yaratma olasılığının yüksek olduğunu iddia etti.

Hakemli bir dergi olan AI Magazine'de yakın zamanda yayınlanan bir makalede araştırmacılar, belirli yapay zeka ajanlarının gelişiminin devam etmesi halinde "felaket sonuçlar" doğabileceği uyarısında bulundu.

Oxford Üniversitesi'nden Nick Bostrom gibi önde gelen filozoflar daha önce de gelişmiş yapay zeka formlarının yarattığı tehditten söz etmişlerdi, ancak yeni makalenin yazarlarından biri bu tür uyarıların yeterince anlaşılmadığını iddia ediyor.

'Sadece mümkün değil, aynı zamanda muhtemel'

Yapay genel zeka güvenlik araştırmacısı Michael Cohen makaleyi paylaştığı Twitter mesajında, "Bostrom, Russell ve diğerleri gelişmiş yapay zekanın insanlık için bir tehdit oluşturduğunu savundular. Tanımladığımız koşullar altında, vardığımız sonuç önceki yayınlardan çok daha güçlü, varoluşsal bir felaket sadece mümkün değil, aynı zamanda muhtemel" diye yazdı.

İnsanlığın rakibi olabilir

Sözkonusu makale, yapay zeka ajanının önceden programlandığı bir ödülü almak için hile yapma stratejisi belirlediği bir senaryo önerdi. Yapay zekanın ödül alma ihtimalini en üst düzeye çıkarmak için, elde etmesi mümkün olduğu kadar çok enerjiye ihtiyaç duyduğu aktarıldı. Düşünce deneyi, insanlığın nihayetinde enerji kaynakları için yapay zekaya karşı rekabet edebileceğini gösterdi.

Cohen sözlerine, "Bizden çok daha zeki bir şeye karşı oynarken 'mevcut enerjinin son parçasını kullanma' yarışını kazanmak muhtemelen çok zor olacaktır. Kaybetmek ise ölümcül olabilir. Teorik de olsa bu olasılıklar, daha güçlü bir yapay zeka hedefine doğru temkinli ilerlememiz gerektiği anlamına geliyor" şeklinde devam etti.

'Büyük kırmızı düğme'

DeepMind böyle bir olasılığa karşı "büyük kırmızı düğme" adını verdiği bir önlem önermişti. Yapay zeka firması 2016 yılında yayınladığı "Güvenli Bir Şekilde Kesintiye Uğratılabilir Ajanlar" başlıklı makalesinde, gelişmiş makinelerin kapatma komutlarını göz ardı etmesini ve kontrolden çıkmış bir haydut ajan haline gelmesini önlemeye yönelik çerçeve çizmişti.

'İlerlememesi büyük trajedi olur'

Profesör Bostrom daha önce, yapay zeka başarıları arasında Go oyununda insan şampiyonları yenmek ve nükleer füzyonu manipüle etmek de bulunan DeepMind'ı insan düzeyinde yapay zeka yaratmaya en yakın şirket olarak tanımlamıştı.

İsveçli araştırmacı ayrıca, hastalıkları tedavi etme ve uygarlığı başka türlü mümkün olmayan bir hızda ilerletme potansiyeline sahip olduğu için yapay zeka gelişiminin devam etmemesinin "büyük bir trajedi" olacağını söylemişti.