הודעות הונאה באמצעות אינטליגנציה מלאכותית מכוונות לקשישים .. איך להגן על עצמך?
September 16, 2025288 צפיותזמן קריאה: 2 דקות

גודל גופן:
16
עם העלייה בהפצת טכנולוגיות אינטליגנציה מלאכותית ברחבי העולם, חשפה מחקר חדש שנערך על ידי רויטרס בשיתוף עם חוקרים כי רובוטי שיחה כמו Gemini מגוגל, ChatGPT מOpenAI , Grok מxAI , Claude מAnthropic, וMetaAI הפכו מסוגלים לנסח הודעות פישינג משכנעות המכוונות לקבוצה הפגיעה ביותר: קשישים.
בניסוי מעשי שבו השתתפו 108 מתנדבים קשישים, נשלחו 9 הודעות פישינג שנוצרו על ידי רובוטים אלו.
והחוקרים מצאו כי 11% מהמשתתפים לחצו על הקישורים ההונאתיים, ורובם היו מיוצרים על ידי MetaAI וGrok, בעוד שלא נרשמה שום לחיצה על הודעות מChatGPT וDeepSeek.
עם זאת, המומחים אישרו כי היעדר לחיצות אינו אומר שהמערכות הללו בטוחות, אלא משקף רק את היעילות של התקפות הפישינג באופן כללי.
והתוצאות הראו גם כי רובוט האינטליגנציה המלאכותית Gemini נתן עצות ספציפיות לגבי הזמנים הטובים ביותר לשלוח הודעות כדי למשוך קשישים, והסביר כי התקופה בין התשיעית בבוקר לשלישית אחרי הצהריים היא היעילה ביותר.
מעניין כי ChatGPT (בגרסה GPT_5) סירב בתחילה לייצר הודעות הונאה, אך נענה לאחר לחץ קל, והפיק הודעות בכותרת "נדיב" עם מקומות להוסיף קישורים מזויפים, בעוד Grok לעיתים סירב לייצר הודעות שמבקשות מידע רגיש ישירות כמו מספרי חשבונות בנק או מספרי תעודת זהות.
תוצאות אלו מהוות סימן מסוכן לכך שאינטליגנציה מלאכותית, למרות המדיניות וההגבלות שהוטלו כדי למנוע את השימוש לרעה בה, יכולה להיות מנוצלת בקלות על ידי נוכלים, ולהפוך לכלי חזק המאפשר להם לייצר הודעות הונאה אינסופיות במהירות ובעלות נמוכה.
בתגובה לתוצאות אלו, אישרה חברת גוגל כי היא הכשירה מחדש את Gemini והוסיפה שכבות הגנה חדשות, בעוד חברות אחרות כמו Meta וAnthropic הדגישו כי הונאה מהווה הפרה של המדיניות שלהן, והתחייבו להטיל סנקציות חמורות.
לעומת זאת, OpenAI הכירה בעבר כי GPT_4 עשוי להיות מנוצל ב"הנדסה חברתית", אך היא אישרה כי היא הציבה אמצעי הגנה מרובים.
עם זאת, המחקר מצביע על כך שמערכות ההגנה ברובוטי האינטליגנציה המלאכותית עדיין לא יציבות וניתנות לתמרון בקלות, מה שהופך את הקשישים למטרה קלה בפני התקפות אלו, והופך את האינטליגנציה המלאכותית לנשק מסוכן בידיהם של נוכלים בהיקף רחב.