A estas alturas, hasta tu cuñado ha oído hablar de ChatGPT. Que si escribe correos, que si hace los deberes, que si te explica cómo freír un huevo con física cuántica. Es la inteligencia artificial que habla como una persona y parece que lo sabe todo.
Pero ¿qué pasa cuando esa misma tecnología se retuerce, se corrompe y acaba en manos de gente que no quiere ayudarte, sino engañarte?
Aquí entran en escena dos nombres que suenan como de peli mala… pero son muy reales: FraudGPT y WormGPT.
ChatGPT ya te suena… pero hay que entenderlo un poco para entender lo otro
ChatGPT no necesita mucha presentación. Ya está en móviles, ordenadores, colegios, trabajos… Está por todas partes. Pero por si acaso: es una inteligencia artificial que genera texto. Tú le hablas, y te responde como si fuera un humano muy listo, muy rápido y que jamás duerme.
Lo que mucha gente no sabe es que estas IA se pueden modificar. Se les puede quitar el filtro, reentrenarlas con otros datos, convertirlas en versiones “sin conciencia”. Y ahí es cuando la cosa se pone fea.
¿Qué demonios es FraudGPT?
FraudGPT no está en la App Store ni en Google Play. Se mueve en foros de la dark web, canales privados, espacios donde nadie entra por accidente. Es, en pocas palabras, una IA para hacer cosas malas: estafar, robar, engañar, manipular.
¿Quieres mandar correos falsos para suplantar a un banco?
¿Escribir chantajes bien redactados?
¿Crear perfiles falsos en redes para timar gente?
FraudGPT te lo da hecho.
Y lo peor: no hace falta ser hacker ni saber programar. Solo tener malas intenciones.
WormGPT: lo mismo, pero aún más oscuro
Si FraudGPT es el estafador, WormGPT es el pirómano digital.
Es una IA entrenada para escribir código malicioso, diseñar virus, colarse en sistemas. Se le llama así porque puede crear worms, esos bichos informáticos que se meten en tu ordenador, se replican y se expanden sin que te enteres.
No tiene filtros de seguridad. No te avisa si haces algo ilegal.
No dice “lo siento, no puedo ayudarte con eso”.
Dice: “Aquí tienes el código. ¿Algo más?”
¿Por qué esto es tan preocupante?
Porque por primera vez, herramientas de este calibre están al alcance de cualquiera. Antes, para hacer daño con tecnología, necesitabas años de formación. Ahora solo necesitas conectarte al grupo adecuado y saber copiar y pegar.
FraudGPT y WormGPT permiten:
- Enviar mensajes fraudulentos que parecen salidos de una oficina legal
- Programar malware en segundos
- Generar engaños financieros sin errores
- Crear identidades falsas con biografías creíbles y coherentes
Y todo sin que tú, como usuario medio, puedas notarlo a simple vista.
Esto no va solo de tecnología. Va de personas
No te imagines a un genio del mal en un sótano con 12 pantallas.
Imagina a un chaval de 16 años con acceso a estas herramientas.
O a alguien con rencor, sin conocimientos técnicos, pero con motivación suficiente para hacer daño.
La IA no tiene ética de serie. Aprende lo que se le da. Y si la entrenas con basura, devuelve basura.
Solo que bien redactada, pulida y a una velocidad que ningún humano podría igualar.
¿Cómo te proteges de algo así?
Aquí van consejos simples, sin alarmismo pero con sentido común:
1. No creas todo lo que lees
Ya no basta con mirar si el email tiene faltas o parece cutre. Estas IAs escriben mejor que muchos humanos. Si algo parece urgente, raro o demasiado perfecto: desconfía.
2. Verifica siempre antes de actuar
¿Ese mensaje viene de tu banco? Llama al banco. ¿Un enlace te redirige a una web idéntica? Comprueba la URL. No hagas clic por reflejo.
3. Actualiza todo. Siempre.
Tu sistema operativo, tus apps, tu antivirus. Las puertas que dejan abiertas los sistemas desactualizados son justo lo que WormGPT necesita para colarse.
4. Educa a tu entorno
No sirve que tú sepas esto si tu equipo, tus padres o tus hijos no tienen ni idea. La ciberseguridad es como el sentido común: se contagia si se comparte.
5. Y si no sabes… pide ayuda
No hace falta que te conviertas en técnico. Pero sí necesitas saber a quién llamar cuando algo huele mal.
La IA no es buena ni mala. Es una herramienta. Y tú decides el uso
Lo fascinante (y lo aterrador) es que la misma tecnología que te ayuda a escribir un poema puede servir para vaciarte la cuenta bancaria.
Todo depende de quién la use, para qué, y con qué intención.
FraudGPT y WormGPT no son ciencia ficción. Existen. Se usan. Están activos.
Y cuanto más sepas sobre ellos, menos poder tienen sobre ti.
En Maliva no jugamos con fuego: te ayudamos a entenderlo
En Maliva trabajamos con inteligencia artificial cada día. Pero no para manipular ni para vender humo.
Estamos aquí para ayudarte a usarla con cabeza. A detectar lo que no encaja. A no quedarte atrás ni caer en trampas.
Cuando el mundo digital se vuelve turbio, necesitas luz, no más sombras.
Y en eso, puedes contar con nosotros.



