Viral ChatGPT karikatürleri kişisel verileri tehlikeye atıyor!

ChatGPT’ye verilen basit bir komutla üretilen karikatürler sosyal medyada hızla yayılıyor. Ancak uzmanlar, daha iyi sonuç almak için paylaşılan fotoğraf ve kişisel bilgilerin uzun vadede gizlilik ihlali ve kimlik hırsızlığı riskini artırabileceği konusunda uyarıyor.

Sosyal medyada hızla yayılan karikatür akımı, kullanıcıları daha gerçekçi ve “isabetli” sonuçlar elde etmek için daha fazla kişisel veri paylaşmaya yöneltiyor. Forbes’ta yer alan habere göre, birçok kullanıcı fotoğraflarının yanı sıra meslek bilgilerini, hobilerini ve hatta özel hayatlarına dair ayrıntıları yapay zekâ sistemlerine yüklüyor.

"VERİLERİN NE AMAÇLA KULLANILACAĞI NET DEĞİL"

Siber güvenlik şirketi ESET’in küresel danışmanı Jake Moore, viral akımlarda kullanıcıların çoğu zaman olası sonuçları düşünmeden hareket ettiğini belirtti. Moore’a göre sohbet botlarına yüklenen fotoğraf ve kişisel bilgiler analiz edilerek sistemlerin geliştirilmesinde kullanılabiliyor. Ancak bu verilerin uzun vadede nasıl saklanacağı ve hangi amaçlarla değerlendirileceği her zaman net değil.

“BİR KEZ YÜKLENDİĞİNDE SİLİNECEĞİNE DAİR GARANTİ YOK”

Siber güvenlik alanında faaliyet gösteren Cytidel’in CEO’su Matt Conlon da benzer uyarılarda bulundu. Conlon, kullanıcıların istedikleri sonucu elde edebilmek için giderek daha ayrıntılı bilgi paylaştığını ifade ederek, “Sonuç yeterince iyi olmazsa daha fazla bağlam ekliyorlar. Bu da son derece kişisel verilerle bir yapay zekâ sistemini beslemek anlamına geliyor” değerlendirmesinde bulundu.

Conlon’a göre bu durum, uzun vadede kimlik hırsızlığı gibi riskleri artırabilir. “Bir kez yüklendiğinde, o bilginin tamamen silineceğine dair bir garanti yok” sözleriyle kullanıcıları dikkatli olmaya çağırdı.

VERİLER NASIL KULLANILIYOR?

OpenAI’nin gizlilik politikasına göre, kullanıcıların gönderdiği içerikler hizmetlerin sunulması ve sürdürülmesi, ürünlerin geliştirilmesi ve araştırma amaçları doğrultusunda kullanılabiliyor. Politikanın ayrıca bağlı şirketler ve hizmet sağlayıcılarla veri paylaşımına da imkân tanıdığı öğrenildi. Ancak verilerin nihai kullanım alanlarının her zaman ayrıntılı biçimde açıklanmadığına dikkat çekildi.

"KONTROLU ÇOĞU ZAMAN MÜMKÜN DEĞİL"

Uzmanlara göre risk yalnızca yapay zekâ platformlarıyla sınırlı değil. Sosyal medyada paylaşılan görseller kopyalanabiliyor, yeniden yayımlanabiliyor ya da farklı bağlamlarda kullanılabiliyor. İnternete yüklenen bir içeriğin tamamen kontrol edilmesi çoğu zaman mümkün olmuyor.

OPENAI, KULLANICILARIN VERİ KONTROLÜNÜ ARTIRAN YENİ AYARLARI DUYURDU

OpenAI, kullanıcıların veri kontrolünü artırabilecek çeşitli ayarlar sunduğunu belirtildi. “Hafıza” özelliği üzerinden geçmiş sohbetlerin referans alınıp alınmayacağı seçilebiliyor; kaydedilen bilgiler görüntülenip silinebiliyor. Ayrıca “geçici sohbet” modu kullanılarak oturum sonunda verilerin hafızaya alınması engellenebiliyor.

DAHA GÜVENLİ KULLANIM İÇİN ÖNERİLER NELER?

Uzmanlar, akıma katılmak isteyen kullanıcıların gerçek fotoğraf yüklememesi, mümkün olduğunca genel ifadeler tercih etmesi ve veri kullanım ayarlarını gözden geçirmesi gerektiğini vurguladı. Siber güvenlik şirketi CultureAI’dan Oliver Simonnet, “Herkese açık şekilde paylaşmayacağınız bir bilgiyi, bir yapay zekâ komutuna da yazmamalısınız” uyarısında bulundu.

Dünya Haberleri