español>>Sociedad

Los abuelos encabezan la lista de objetivos de los estafadores de IA

Por DIARIO DEL PUEBLO digital | el 09 de abril de 2026 | 13:48

(Foto generada por IA )

(Foto generada por IA )

Expertos legales advierten sobre falsos familiares que se aprovechan de personas mayores a las que cuidan.

Hace aproximadamente un año, una anciana de apellido Ding, residente de Huangshi, provincia de Hubei, recibió una llamada telefónica que creyó que era de su nieto, quien le pedía ayuda económica con urgencia. Lo que no sabía entonces era que la llamada era el comienzo de una estafa sofisticada.

Cuando Ding contestó el teléfono fijo, la voz al otro lado de la línea era idéntica a la de su nieto. Entre lágrimas, el interlocutor le explicó que había herido accidentalmente a un compañero de clase en la escuela y que necesitaba 40.000 yuanes (5.500 dólares) para resolver el asunto en privado. Le dijo que el padre del compañero herido iría a su casa a recoger el dinero.

Confiando en la voz, Ding reunió rápidamente el dinero y se lo entregó a un hombre de apellido Wu, quien llegó a su puerta. Para disipar cualquier duda, Wu incluso llamó al supuesto nieto de Ding delante de ella, permitiéndole escuchar su voz.

Ese día, Ding fue estafada por 20.000 yuanes. La voz que escuchó por teléfono era un clon de la voz de su nieto, generado mediante inteligencia artificial de vanguardia.

Ding no fue la única víctima de la estafa con IA.

Otros dos ancianos de la ciudad cayeron en el engaño de Wu. Solo después de hablar con sus familiares se dieron cuenta de que habían sido estafados, momento en el que ya habían perdido un total de 60.000 yuanes.

Tras denunciar la estafa a la policía local, Wu fue localizado y arrestado. En noviembre de 2025, el Tribunal Popular del Distrito de Huangshigang lo declaró culpable de fraude y lo condenó a dos años y un mes de prisión, además de imponerle una multa de 15.000 yuanes.

El tribunal también advirtió sobre el uso sofisticado de la IA para imitar voces y explotar a personas mayores vulnerables que priorizan a la familia y desconocen la tecnología.

El caso también llamó la atención del Tribunal Popular Supremo, la máxima instancia judicial de China.

"Durante el último año, las estafas que utilizan IA para clonar voces y tecnología deepfake se han vuelto alarmantemente frecuentes, dirigidas específicamente a personas mayores y planteando nuevos desafíos para el sistema judicial y la sociedad", declaró Zhou Jiahai, jefe de la Oficina de Investigación del tribunal.

A finales del año pasado, un residente de Beijing de apellido Zhang también fue víctima de una estafa con IA similar a la de Ding.

"La voz en el teléfono fijo era la de mi nieto", recordó Zhang. "Dijo que la noche anterior había discutido durante la cena y que, en la pelea, la otra persona se golpeó la cabeza contra la esquina de una mesa y resultó herida. Lo llevaron al hospital y necesitaba 80.000 yuanes para el tratamiento".

Preocupada por el tono urgente de su "nieto", Zhang le aseguró: "La abuela preparará el dinero".

Alrededor de las 2 de la tarde de ese día, Zhang entregó 80.000 yuanes frente a su apartamento a la persona de contacto que el impostor le había dicho que recogería el dinero.

Al día siguiente, Zhang recibió otra llamada del estafador, quien le dijo que las lesiones de la persona eran más graves de lo que se pensaba inicialmente y que necesitaba 30.000 yuanes adicionales.

Fue entonces cuando Zhang sintió que algo andaba mal. Tras hablar con otros familiares y llamar al teléfono móvil de su verdadero nieto, se dio cuenta de que había sido víctima de una estafa y denunció el engaño a la policía.

Gao Shan, de la Seguridad Pública de Beijing, declaró que en los últimos meses se ha producido un aumento en los casos de estafadores que utilizan inteligencia artificial para suplantar la identidad de nietos y defraudar a personas mayores, y añadió que la policía había detenido a ocho sospechosos en el caso de Zhang.

Según Gao, los estafadores suelen obtener información personal a través de canales ilegales y llaman a los teléfonos fijos de personas mayores, ya que estos generalmente no muestran el número de quien llama.

"Los estafadores utilizan tecnología de síntesis de voz con IA para imitar las voces de los nietos de las víctimas y crean una sensación de urgencia, alegando que se necesita dinero para una indemnización por una pelea, la fianza por una detención o gastos médicos, aprovechándose de la preocupación de las personas mayores por sus familiares", explicó.

Xu Hao, abogado del bufete Beijing Jingsh, afirmó que la pericia técnica necesaria para la clonación de voz y el intercambio de rostros mediante IA no es difícil de adquirir, y añadió que existen muchas opciones de software disponibles en línea.

"Los estafadores solo necesitan capturar unos segundos de información de voz de plataformas de vídeo corto e introducirla en el software para generar una voz muy parecida a la del usuario del vídeo, que luego utilizan para estafar a la familia de la víctima", concluyó.

La simplicidad y el bajo costo de este proceso son algunas de las razones del reciente aumento de las estafas basadas en IA, afirmó Xu.

Señaló que las víctimas de estas estafas suelen ser personas mayores que viven solas, ya que tienen menos contacto con sus hijos y nietos y desconocen su rutina diaria. Además, es posible que no dominen el uso de teléfonos inteligentes ni comprendan la IA, lo que las hace más vulnerables al engaño.

Otro abogado del bufete, Zhao Li, indicó que los estafadores también se aprovechan de la vulnerabilidad emocional de muchas personas mayores, en particular del profundo cariño y el apoyo incondicional que brindan a sus hijos y nietos.

"Las personas mayores generalmente tienen algunos ahorros y prefieren ahorrar antes que ver sufrir a sus hijos y nietos", explicó. "Por lo tanto, cuando escuchan llamadas telefónicas pidiendo ayuda a sus supuestos hijos y nietos, se conmueven y caen en la trampa".

Ambos abogados afirmaron que, si bien la IA facilita la vida de las personas, también implica que las tácticas de los estafadores se han vuelto más sofisticadas. Aunque el costo del fraude no suele ser elevado y se puede recurrir a la vía legal, los abogados señalaron que resolver y combatir estos delitos representa un desafío considerable.

Wang Bin, juez presidente de la Tercera Sala Penal del Tribunal Supremo, indicó que el uso de inteligencia artificial (IA) para replicar los rasgos faciales y las voces de los familiares de las víctimas, y la realización de estafas mediante vídeos y llamadas de voz de gran realismo, tienen una tasa de éxito mayor que los métodos tradicionales. Wang añadió que esto plantea mayores dificultades para la aplicación de la ley y la prevención.

En respuesta a este desafío, los tribunales chinos se han centrado en los últimos años en gestionar con mayor eficacia los casos de fraude relacionados con la IA, afirmó Wang. Esto se ha logrado aumentando las penas para los organizadores y autores de las estafas, así como para los reincidentes.

«Las personas involucradas en el desarrollo y la venta de herramientas de IA para el intercambio de rostros y la imitación de voces, la venta de información personal y la transferencia de fondos ilícitos también son severamente penalizadas», concluyó.

«Nuestro objetivo es lograr una represión integral y exhaustiva para cortar la asistencia técnica que facilita el fraude en las telecomunicaciones», afirmó.

También destacó la importancia de prevenir las estafas relacionadas con la IA desde el principio, mediante el fortalecimiento de la supervisión de las plataformas en línea y una mayor educación legal para las personas mayores.

Zhao coincidió con este enfoque. Indicó que los operadores de plataformas de redes sociales, como las que ofrecen aplicaciones de videos cortos y podcasts, deberían mejorar las medidas para proteger los datos personales de los usuarios. «Por ejemplo, pueden emplear métodos técnicos para impedir que cualquier persona, aparte de los usuarios, descargue videos», añadió.

Xu sugirió que los operadores de telefonía móvil, los proveedores de servicios de pago y los bancos establezcan un período de espera para las transferencias realizadas por usuarios mayores de 65 o 70 años.

«Este período permitiría verificar manualmente la información del destinatario para prevenir pérdidas financieras», explicó.

También hizo un llamamiento a los agentes de policía y a los trabajadores sociales para que presten especial atención a las personas mayores que viven solas, proporcionándoles una mejor atención, educación pertinente y una mayor comprensión de sus necesidades emocionales.

Tanto los jueces del Tribunal Supremo como los abogados reiteraron la necesidad de mejorar la formación jurídica de las personas mayores para prevenir el fraude en el sector de la IA. Asimismo, se debe compartir información sobre el fraude y consejos para combatirlo en las comunidades, las zonas rurales y con las familias.

Zhou afirmó que el Tribunal Supremo también reforzará la investigación sobre cuestiones de IA y divulgará casos relevantes para perfeccionar las políticas judiciales, orientando el desarrollo saludable del sector y protegiendo eficazmente el patrimonio de las personas.

(Web editor: 周雨, Zhao Jian)