domingo, 30 de julio de 2023

El lado oscuro de la inteligencia artificial ya está aquí: desarrollan una IA que crea fraudes automáticamente

 


Era cuestión de tiempo que el subconjunto de maleantes digitales se mezclase con el subconjunto de herramientas de IA.

Uno de los apartados más problemáticos de la tecnología actual es que sin un conocimiento básico de la misma, la mayoría de personas están expuestas a algunas de las estafas digitales más comunes. Puede que necesites conocer los virus y fraudes más comunes en WhatsApp o si lo tuyo en conocer gente online, que tengas que revisar algunas de las estafas más comunes en Tinder. Eso sí, aún no teníamos en el radar las herramientas para delinquir utilizando IA.

FraudGPT se une a las herramientas de hacking basadas en la IA

Su nombre nos recuerda al modelo de lenguaje de OpenAI, pero nada tiene que ver con la utilidad de la propuesta de la empresa norteamericana. Según la información publicada en el medio PCMag, FraudGPT parece ser el chatbot que posibilita que los amantes de lo ajeno puedan acceder a una gran cantidad de herramientas para intentar explotar vulnerabilidades en internet y entre los usuarios de la red.

La plataforma de seguridad Netenrich se ha topado con información sobre este chatbot en un foro de hackers y ahí es donde se ha conseguido acceder a una lista de herramientas que esta inteligencia artificial maligna podría realizar. Entre las opciones disponibles para quienes no tienen miramientos en estafar y provocar daños a personas e instituciones encontramos :

  • Escribir código malicioso.
  • Crear malware indetectable.
  • Crear páginas de phishing.
  • Redactar páginas y cartas de scam.
  • Proporcionar números de identificación bancarios que no tengan el sello Verified by Visa.
  • Aprender a codificar y hackear.
  • Encontrar filtraciones y vulnerabilidades
Y si pensabas que esto es simplemente papel mojado, parece que este medio digital ha tenido acceso a un vídeo donde se realiza una demostración de la herramienta de hackeo mediante IA, creando un SMS que imita la identidad de un banco. Poco más se conoce sobre el modelo utilizado para generar este chatbot fraudulento, dado que su desarrollador no ha querido responder al medio en cuestión.

Eso sí, esta no es una herramienta barata, dado que el uso de la misma tiene un coste mensual de 200 dólares, alrededor de 180 euros. No se sabe hasta qué punto está avanzado FraudGPT, pero es evidente que el auge de la inteligencia artificial también tenía que acabar por llegar a los maleantes digitales, con nuevas maneras y tretas para captar la atención de otros delincuentes digitales.

Font, article de Roberto Cantero per a "Mundo deportivo"

No hay comentarios:

Publicar un comentario