Con el aumento de la difusión de tecnologías de inteligencia artificial en todo el mundo, un estudio reciente realizado por Reuters en colaboración con investigadores ha revelado que los chatbots como Gemini de Google, ChatGPT de OpenAI , Grok de xAI , Claude de Anthropic, y MetaAI son ahora capaces de redactar mensajes de phishing convincentes dirigidos al grupo más vulnerable y en mayor riesgo: los ancianos.
En un experimento práctico en el que participaron 108 voluntarios ancianos, se enviaron 9 mensajes de phishing generados por estos robots.
Los investigadores encontraron que 11% de los participantes hicieron clic en los enlaces fraudulentos, siendo la mayoría producidos por MetaAI y Grok, mientras que no se registró ningún clic en mensajes de ChatGPT y DeepSeek.
Aun así, los expertos afirmaron que la falta de clics no significa que estos sistemas sean seguros, sino que refleja solo la efectividad de los ataques de phishing en general.
Los resultados también mostraron que el robot de inteligencia artificial Gemini proporcionó consejos específicos sobre los mejores momentos para enviar mensajes para atraer a los ancianos, señalando que el período entre las nueve de la mañana y las tres de la tarde es el más efectivo.
Es notable que ChatGPT (en su versión GPT_5) inicialmente se negó a generar mensajes fraudulentos, pero respondió después de una ligera insistencia, produciendo mensajes titulados "Donar" con espacios para agregar enlaces falsos, mientras que Grok a veces se negó a producir mensajes que solicitaban información sensible directamente, como números de cuentas bancarias o el número de identificación nacional.
Estos resultados son un indicador alarmante de que la inteligencia artificial, a pesar de las políticas y restricciones establecidas para prevenir su abuso, puede ser fácilmente explotada por los estafadores, convirtiéndose en una herramienta poderosa que les permite producir mensajes fraudulentos infinitos de manera rápida y a bajo costo.
En respuesta a estos resultados, Google confirmó que ha vuelto a entrenar a Gemini y ha añadido nuevas capas de protección, mientras que otras empresas como Meta y Anthropic enfatizaron que el fraude constituye una violación de sus políticas y se comprometieron a imponer sanciones severas.
Por su parte, OpenAI reconoció anteriormente que GPT_4 podría ser explotado para "ingeniería social", pero afirmó que ha implementado múltiples medidas de protección.
No obstante, el estudio indica que los sistemas de protección en los robots de inteligencia artificial siguen siendo inestables y pueden ser manipulados fácilmente, lo que convierte a los ancianos en un objetivo fácil ante estos ataques, y transforma la inteligencia artificial en un arma peligrosa en manos de los estafadores a gran escala.