
TRM Labs afirmó que se enviaron 35.000 millones de dólares en criptomonedas a direcciones de estafadores el año pasado, mientras estos escalaban sus operaciones con IA y eficiencia empresarial.
El uso de grandes modelos de lenguaje en estafas se quintuplicó en 2025, según TRM Labs, a medida que los estafadores aprovecharon la tecnología para aumentar el alcance, hacer las estafas más convincentes y lanzarlas a gran escala.
Esto ocurre mientras 35.000 millones de dólares en criptomonedas fueron enviados a estafadores en 2025, una ligera disminución con respecto a los 38.000 millones de dólares del año anterior, según TRM Labs afirmó en su informe de delitos de criptomonedas de 2026 el miércoles.
“Los grandes modelos de lenguaje (LLM) permiten a las estafas cruzar contextos lingüísticos y culturales con menos fricción, mientras que las imágenes generadas por IA, la clonación de voz y los videos deepfake reducen el costo de crear personas convincentes”, afirmó la firma.
