¿Cómo se emplea Chat GPT para estafar, vigilar y manipular información?

En los últimos días, OpenAI, ha lanzado una advertencia a todos sus usuarios. Su chat de inteligencia artificial, ChatGPT, está siendo explotado para cometer estafas, lanzar campañas de desinformación y vigilar conversaciones en redes sociales con fines maliciosos.

Chat GPT y posibles amenazas

Casos detectados, de estafas a campañas encubiertas

El documento expone varios relatos reveladores. En Corea del Sur, por ejemplo, una red utilizó la tecnología para desarrollar programas maliciosos y sistemas de comando y control que podrían potencialmente comprometer dispositivos remotos.

En otras zonas de Asia, como Camboya, Birmania y Nigeria, hubo intentos de usarla para engañar directamente a personas mediante mensajes fraudulentos. En el caso de China, se detectó el uso para desarrollar herramientas de vigilancia a gran escala, dedicadas a monitorear redes sociales.

Además, la compañía informa que sus modelos han sido usados para generar contenido destinado a plataformas como YouTube o TikTok con el objetivo de difundir información sesgada o falsa.

Una amenaza real

Resulta significativo que la alerta venga de OpenAI, pues es quien mantiene el control de las normas de uso de la plataforma. La advertencia gana peso cuando se tiene en cuenta que el propio Sam Altman, director ejecutivo de la empresa, ha reconocido en ocasiones anteriores que la creciente sofisticación de este tipo de tecnologías puede alimentar una “crisis de fraude inminente”.

En sus declaraciones, Altman ha expresado su preocupación de que instrumentos como la clonación de voz o la generación de imágenes y videos ultra realistas faciliten la suplantación de identidad. Afirma que esos avances representan riesgos crecientes para las instituciones financieras, los canales de verificación biométrica e incluso la autenticación por voz.

Por su parte, OpenAI señala que algunas de las cuentas descubiertas estaban vinculadas a requerimientos de vigilancia y espionaje encubierto, lo que motivó su suspensión inmediata.

Sam Altman, Director Ejecutivo de Open AI |Fuente: Creative Commons

Señales de alerta: cómo detectar mensajes sospechosos

Ante este panorama, los expertos recomiendan mantener una actitud crítica frente a textos, correos o enlaces provenientes de fuentes desconocidas. Algunas de las características más comunes en mensajes fraudulentos que han sido potenciados por herramientas automatizadas son:

  • Uso de lenguaje muy formal, pero sin contenido concreto.
  • Enlaces que conducen a dominios desconocidos o ligeramente alterados (por ejemplo, una letra añadida o cambiada).
  • Peticiones de datos personales sensibles, contraseñas o transferencias urgentes.
  • Promesas exageradas o amenazas en caso de incumplimiento.
  • Mensajes que solicitan interactuar con enlaces antes de que el usuario pueda verificar su autenticidad.

Aunque estas señales no garantizan que un mensaje sea fraudulento, sí pueden servir como filtros de defensa para no caer en engaños.

Nuevas políticas de uso de Open AI |Fuente: OPenAI

Un desafío para la regulación y la seguridad digital

El problema que denuncia OpenAI plantea un dilema complejo. ¿Cómo permitir el uso legítimo de herramientas tecnológicas avanzadas sin que caigan en manos corruptas? La compañía ha reforzado sus políticas de uso y ha bloqueado de modo proactivo cuentas sospechosas. Pero la eficacia de estas medidas depende de la rapidez con que puedan detectarse abusos emergentes.

Diversos especialistas en ciberseguridad coinciden en que es urgente fijar estándares para exigir transparencia, rastreabilidad y mecanismos que permitan auditar cuándo se está utilizando la herramienta para fines legítimos o dudosos.

Vigilancia, prudencia y educación

La advertencia de OpenAI no debe tomarse a la ligera. Cuando quienes controlan la tecnología avisan de los riesgos, es momento de escucharlos. Las herramientas avanzadas traen grandes beneficios, pero también nuevas vulnerabilidades.

Como usuarios, nuestra mejor defensa está en la prudencia digital y la educación. Además, es indispensable que los responsables de la ciberseguridad pública y privada trabajen en conjunto para anticipar estos retos y proteger a la ciudadanía.

Si quieres formarte en Inteligencia Artificial echa un ojo a nuestros cursos y no te quedes atrás.