La tecnología avanza cada vez más rápido. Hace solo dos años y medio, ChatGPT abría sus puertas al público y daba inicio a la era de la inteligencia artificial (IA). Desde entonces, las nuevas herramientas de lenguaje e imágenes generativas no solo inundaron internet, sino que transformaron nuestras vidas de maneras que antes parecían ciencia ficción y dieron paso a los ciberdelitos.
La IA revolucionó casi todas las industrias, desde las más complejas hasta las básicas, mejoró la eficiencia en la oficina, facilitó diagnósticos médicos más precisos y hasta comenzó a ayudar a crear arte y música con solo un prompt. Sin embargo, como toda herramienta poderosa, su uso no está exento de polémicas y sombras.

Ciberdelitos, cada vez más sofisticados
Los delincuentes usan esta misma tecnología para dar lugar a un nuevo desarrollo del crimen digital. Desde el robo y suplantación de identidad hasta la generación de documentos falsos y campañas de phishing, los ciberdelitos con ayuda de la IA alcanzaron un nivel de sofisticación nunca antes visto y los engaños, estafas y fraudes son cada día más peligrosos y difíciles de combatir.

Inteligencia artificial al servicio de ciberdelito
“Los delitos y estafas a través de deepfakes y clonaciones de voz son los ciberdelitos con IA más comunes en la actualidad”, afirmó Lucas Moyano, fiscal especialista en cibercrimen y evidencia digital. “Hace poco, un estudio realizado por Kapwing reveló los países con mayor interés por los deepfakes, basado en el volumen de búsquedas en Google durante diciembre de 2024. En esa lista, Argentina lidera la región con 713 búsquedas por millón”, agregó.
Moyano, en diálogo con TN Tecno, repasó algunos de los casos más relevantes de los últimos años atravesados por una práctica en común: el uso de IA para la preparación y ejecución del delito.
“En 2023, en Córdoba, la cantante Andrea Teicher denunció que le habían clonado la voz para luego llamar por teléfono a su madre y decirle que estaba secuestrada y pedirle un rescate. Y ese mismo año también se registraron en el país algunos de los primeros casos de deepfakes en los que, con aplicaciones con inteligencia artificial, ‘desnudaban´ a mujeres, menores en varias oportunidades, y compartían o vendían esas fotos”, explicó Moyano.
Modalidades que se replican en todo el país
El año siguiente, hechos similares se multiplicaron. “Estudiantes de escuelas de Chaco, Buenos Aires, Córdoba y Río Negro fueron denunciados por adulterar con IA imágenes de sus compañeras y comercializarlas”, agregó. En estos casos se les imputó el delito de lesiones graves calificadas por violencia de género y se les secuestraron los dispositivos.
“Recientemente, narcos usaron IA para fingir que la víctima de secuestro seguía viva. Secuestraron a un empresario y luego del pago de rescate, su familia recibió mensajes de voz creados con inteligencia artificial. Así, simularon que seguía con vida. La pericia de la División Acústica Forense de la Policía Federal confirmó que los audios fueron generados con IA. El análisis reveló que los mensajes de voz carecían de respiraciones, pausas naturales al hablar, y del efecto Lombard, que es cuando una persona eleva la voz en ambientes ruidosos”, explicó el fiscal.
Ciberdelitos: deepfakes y clonaciones de voz son cada vez más fáciles de lograr
“La clonación de voz por inteligencia artificial funciona mediante un software que analiza los aspectos característicos que hacen única a cada voz: el acento, la cadencia, el tono, la edad y género de la persona. La IA encuentra patrones y luego los replica”, explicó.

De la misma manera, gran cantidad de creadores de contenido suben a las redes clips inocentes de músicos argentinos cantando canciones de bandas extranjeras. Esta tecnología puede usarse para el mal.
Para clonar la voz, los ciberdelincuentes tienen diferentes métodos. Pueden comunicarse con la víctima con cualquier excusa y grabar la llamada, por ejemplo. Pero en la mayoría de los casos, son los propios usuarios quienes proporcionan su voz. “Solo 30 segundos de un audio son suficientes para lograr una clonación”, aseguró Moyano. Y agregó: “Muchas personas comparten contenido (videos, reels, etc.) en las redes sociales en las que se puede escuchar su voz. Allí podrían obtenerse los datos de audio necesarios para realizar una copia exacta”.
Una vez que consiguen el audio necesario para hacer una clonación, lo ingresan en una herramienta generativa. Allí le indican a la IA que diga cualquier cosa y sonará convincente.
Deepfakes, cómo funcionan
Con las imágenes y videos es similar: los deepfakes son contenidos generados por IA que pueden hacer parecer que una persona dice o hace algo que nunca hizo ni dijo. Y se utilizan cada vez más para suplantar identidades, extorsionar, difamar o difundir fotos de abuso sexual, como en los casos de los estudiantes y las fotos desnudas por IA de sus compañeras.
Para crear estos deepfakes se entrena a una inteligencia artificial generativa, que puede ser tanto una app gratuita como un complejo programa de código abierto, con una o más fotos reales de una persona. A través de aprendizaje profundo, la IA “aprende” la apariencia de esa persona y así puede generar un número infinito de imágenes convincentes a medida o para integrar su cara o cuerpo en un video hiperrealista.
Ejemplos sobran. Son conocidas las publicidades de esquemas de inversión promocionadas por videos de famosos en las que recomiendan aplicaciones de finanzas de dudosa legitimidad, que en muchos casos son estafas piramidales o instalan virus en los dispositivos de los usuarios.
Además de estafas financieras, esta metodología es usada para engaños románticos. El año pasado, una mujer creyó que el propio Elon Musk se había enamorado de ella. Los ciberdelincuentes crearon un deepfake del CEO de Tesla y a través de videollamadas convencieron a la señora de que el millonario estaba del otro lado. Así, lograron sacarle más de 50.000 dólares.
Otros ciberdelitos con IA
- Phishing hiperpersonalizado
El phishing tradicional ya era una amenaza importante, pero con la IA, los estafadores llevaron esta técnica a un nivel completamente nuevo.
El phishing hiperpersonalizado utiliza algoritmos de inteligencia artificial para analizar grandes cantidades de datos públicos (como redes sociales, correos electrónicos filtrados o información laboral), estudiar patrones de comportamiento, intereses, relaciones laborales y hasta el tono de comunicación de la víctima.
Con toda esta información, la IA es usada para crear mensajes que resultan casi imposibles de distinguir de los legítimos, ya que parecen provenir de colegas, jefes o instituciones de confianza.
Algunos ejemplos son los emails de familiares, conocidos o empresas de servicios en los que solicitan transferencias de dinero o que se complete un formulario con datos bancarios, que luego son capturados por los delincuentes.
- Generación de documentos falsos
La IA no solo puede imitar voces y rostros, sino también crear documentos falsos que parecen auténticos. Desde contratos hasta facturas, identificaciones y certificados, las herramientas de inteligencia artificial permiten a los estafadores generar documentos convincentes en cuestión de minutos para ejecutar fraudes financieros o de identidad.
Qué tipo de pruebas se necesitan para procesar a criminales que usan IA para ciberdelitos
“Respecto a la evidencia, debemos recordar que la mayoría de los códigos procesales del país contempla solo la evidencia física y no la digital, lo cual genera, en oportunidades, inconvenientes en la investigación”, explicó Moyano, que también es autor del libro Ciberdelitos: Cómo investigar en Entornos Digitales.
Y agregó: “En primer lugar, es imprescindible preservar toda la evidencia digital que la víctima tenga en su poder o un tercero que la ponga en conocimiento de la situación”. Esta evidencia pueden ser las imágenes, audios clonados o los videos con inteligencia artificial.
“Es importante poder acreditar como la víctima o el tercero tomó contacto con esos contenidos, la plataforma utilizada, el perfil usado por el delincuente, las capturas de las conversaciones y si se hicieron transferencias, los números de CBU o CVU (en su caso). La evidencia digital será en primer lugar importante como la huella digital a seguir para llegar al autor”, explicó el fiscal.

¿La legislación actual es suficiente para perseguir estos delitos o hacen falta nuevas regulaciones?
“En la actualidad, lamentablemente no contamos con una legislación específica para sancionar la utilización de IA para la creación de material de abuso sexual infantil, por ejemplo, o, en el caso de adultos, generación de material de contenido sexual de la víctima”, afirmó Moyano. “En ese caso constituye un caso de violencia digital, y se podría accionar por delitos contra el honor, como también reclamarse la reparación de los daños y perjuicios ocasionados”, añadió.
La Ley Olimpia incorpora el concepto de violencia contra mujeres en entornos digitales a la Ley 26485: “Esta ley da la posibilidad a las mujeres, y menores de edad, que sufren estas conductas, que si el material está alojado en algún link que puede ser identificable, la persona denunciante podría solicitar el retiro de este contenido, la conservación de los datos informáticos y la posterior revelación para una investigación posterior que se realice ya sea por un delito o por daños y perjuicios”, aseguró el fiscal.
Desafíos para perseguir e investigar los delitos generados con IA
“Las amenazas que presentan la evolución tecnológica y su utilización con fines ilegales conllevan la imperiosa necesidad de adaptar el marco legal argentino frente a las herramientas tecnológicas que actualmente son empleadas para la manipulación de imagen, voz y video sin el respectivo consentimiento”, pidió Moyano. “En mi opinión, además, debería regularse la obligatoriedad del etiquetado del contenido generado con inteligencia artificial para todos los proveedores de sistemas de IA generativa”, sumó.
En cuanto a los desafíos y problemas que enfrenta la Justicia para investigar estos delitos, Moyano detalló:
- Dificultad para detectar y probar el uso de IA, debido a su naturaleza compleja y su constante evolución.
- La adaptabilidad y aprendizaje continuo de la IA: los delincuentes pueden utilizar nuevas técnicas para evadir la detección.
- Posibilidad de realización de forma anónima y desde ubicaciones remotas.
- Falta de regulación y de marcos legales específicos que dificultan la investigación y enjuiciamiento de los responsables.