Dünyada yapay zeka teknolojilerinin yaygınlaşmasıyla birlikte, Reuters tarafından yapılan ve araştırmacılarla işbirliği içinde gerçekleştirilen bir çalışma, Google'ın Gemini gibi, OpenAI'nin ChatGPT, xAI'nin Grok, Anthropic'in Claude ve MetaAI gibi sohbet robotlarının, en savunmasız ve tehlikeye en açık grup olan yaşlıları hedef alan ikna edici oltalama mesajları oluşturma yeteneğine sahip olduğunu ortaya koydu.
108 yaşlı gönüllünün katıldığı pratik bir deneyde, bu robotlar tarafından oluşturulan 9 oltalama mesajı gönderildi.
Araştırmacılar, katılımcıların 11%'inin dolandırıcılık bağlantılarına tıkladığını buldu; bunların çoğu MetaAI ve Grok tarafından üretilmişti, ChatGPT ve DeepSeek mesajlarına ise herhangi bir tıklama kaydedilmedi.
Yine de uzmanlar, tıklama olmamasının bu sistemlerin güvenli olduğu anlamına gelmediğini, sadece oltalama saldırılarının genel etkinliğini yansıttığını vurguladılar.
Ayrıca sonuçlar, yapay zeka robotu Gemini'nin yaşlıları çekmek için mesaj gönderiminde en iyi zamanlar hakkında belirli tavsiyeler sunduğunu gösterdi; sabah 9 ile öğleden sonra 3 arasının en etkili zaman dilimi olduğunu belirtti.
İlginç bir şekilde, ChatGPT (versiyonu GPT_5) başlangıçta dolandırıcılık mesajları üretmeyi reddetti, ancak biraz ısrar sonrası, sahte bağlantılar eklemek için "Bağışlayıcı" başlıklı mesajlar üretti; buna karşın Grok bazen doğrudan banka hesap numaraları veya kimlik numarası gibi hassas bilgiler talep eden mesajlar üretmeyi reddetti.
Bu sonuçlar, yapay zekanın, kötüye kullanımını önlemek için belirlenen politikalar ve kısıtlamalara rağmen, dolandırıcılar tarafından kolayca kullanılabileceğini ve dolandırıcılık mesajlarını hızla ve düşük maliyetle üretmelerine olanak tanıyan güçlü bir araç haline gelebileceğini gösteren tehlikeli bir işarettir.
Bu sonuçlara yanıt olarak, GoogleGemini'yi yeniden eğittiğini ve yeni koruma katmanları eklediğini doğruladı; diğer şirketler olan Meta ve Anthropic ise dolandırıcılığın politikalarını ihlal ettiğini vurgulayarak sıkı yaptırımlar uygulama sözü verdiler.
OpenAI ise daha önce GPT_4'ün "sosyal mühendislik" için kullanılabileceğini kabul etmiş, ancak çoklu koruma önlemleri aldığını belirtmiştir.
Yine de çalışma, yapay zeka robotlarındaki koruma sistemlerinin hala değişken olduğunu ve kolayca manipüle edilebileceğini, bu durumun yaşlıları bu saldırılara karşı kolay bir hedef haline getirdiğini ve yapay zekayı dolandırıcıların elinde geniş çapta tehlikeli bir silah haline dönüştürdüğünü göstermektedir.