Description: A study by Indiana University researchers uncovered widespread misuse of large language models (LLMs) for cybercrime. Cybercriminals, according to that study, use LLMs like OpenAI's GPT-3.5 and GPT-4 to create malware, phishing scams, and scam websites. These models are available on underground markets, often bypassing safety checks through jailbreaking. Named malicious LLMs are BadGPT, XXXGPT, Evil-GPT, WormGPT, FraudGPT, BLACKHATGPT, EscapeGPT, DarkGPT, and WolfGPT.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado por OpenAI e implementado por Cybercriminals , BadGPT , XXXGPT , Evil-GPT , WormGPT , FraudGPT , BLACKHATGPT , EscapeGPT , DarkGPT y WolfGPT, perjudicó a internet users , Organizations y Individuals targeted by malware.
Estadísticas de incidentes
ID
736
Cantidad de informes
1
Fecha del Incidente
2023-12-01
Editores
Informes del Incidente
Cronología de Informes
techpolicy.press · 2024
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
translated-es-Despite the hype around them, readers of Tech Policy Press are well aware that the advance of large language models (LLMs) and their various applications-- ranging from chatbots and coding assistants to recommendation systems-…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents