Continuando su exploración del impacto acelerado de la IA en el sector del iGaming, Trilby Browne, de la Unidad de Investigaciones Especiales de iGF, destapa las llamadas estafas de medios “sintéticos” en el Reino Unido.
Aparentemente de la noche a la mañana, la IA generativa se ha arraigado profundamente en todos los aspectos de nuestra vida. Herramientas de IA no opcionales están integradas en plataformas que usamos a diario, incluidos motores de búsqueda y redes sociales. Los lugares de trabajo fomentan su uso. Y la industria del iGaming la ha adoptado plenamente.
Desde la prevención del fraude hasta la identificación del juego problemático e incluso el marketing, las plataformas han integrado cada vez más la IA generativa en todos los niveles de sus operaciones.
Pero, al mismo tiempo, está surgiendo un problema grave.
Las estafas con medios “sintéticos” —o deepfakes— han aumentado de forma exponencial en el último año.
Según el Accelerated Capability Environment del Ministerio del Interior, alrededor de ocho millones de deepfakes se compartieron en el Reino Unido el año pasado. Eso es casi cuatro veces el número compartido en 2023.
Quizás aún más alarmante, un informe de 2026 de la AI Incident Database afirmó que este tipo de fraude se ha vuelto “industrial”.
Y Fred Heiding, un destacado investigador de la Universidad de Harvard que estudia las estafas impulsadas por IA, ha advertido que “lo peor está por venir”.
Videos deepfake
Los estafadores pueden hacerse pasar por cualquier persona con facilidad, ya que la IA generativa actualmente es capaz de crear imitaciones de voz altamente convincentes y videos deepfake cada vez más sofisticados.
La firma de inteligencia del sector Gambling IQ encontró que el fraude en el sector aumentó un 73 % entre 2022 y 2024. Y los deepfakes —utilizados para superar controles KYC o cometer abusos masivos de bonos— contribuyeron significativamente a este incremento.
Dentro de este amplio entorno de actores interconectados, la cuestión de la responsabilidad resulta especialmente compleja, ya que el fraude con IA está creciendo más rápido de lo que los organismos reguladores pueden reaccionar.

Los sistemas habilitados por IA —engañosos o no— existen dentro de un entramado de actores, decisiones y estructuras de gobernanza.
Como señaló un importante estudio, esto hace que la red resultante de responsabilidades sea “complicada”.
En la actualidad, la mayoría de los gobiernos y organismos legislativos simplemente no pueden abordar el fraude a esta escala.
Por ejemplo, las fuerzas del orden del Reino Unido fueron calificadas como “insuficientemente equipadas para hacer frente al fraude impulsado por IA” en un informe de 2025 del Alan Turing Institute.
Daños graves
Joe Burton, profesor de Seguridad y Ciencia de la Protección en la Escuela de Asuntos Globales de la Universidad de Lancaster y autor del informe, describe claramente el problema:
“El crimen habilitado por IA ya está causando graves daños personales y sociales y grandes pérdidas financieras. Necesitamos tomarnos en serio nuestra respuesta y proporcionar a las fuerzas del orden las herramientas necesarias para desarticular activamente a los grupos criminales”, advierte.
“Si no lo hacemos, veremos una rápida expansión del uso criminal de las tecnologías de IA”.
En la actualidad, la Comisión de Juego del Reino Unido (UKGC) coloca la responsabilidad principal en los operadores para prevenir el delito dentro de la industria regulada.
Los operadores deben implementar sus propias políticas, procedimientos y controles para mitigar riesgos, que van desde el fraude y el abuso de identidad hasta el lavado de dinero.
Pero con las capacidades de la IA desarrollándose tan rápidamente, las plataformas por sí solas no pueden soportar el peso de combatir el fraude y el engaño impulsados por IA. Tampoco deberían hacerlo, dado que la convergencia de estafas relacionadas con IA en el mundo del iGaming va mucho más allá de las plataformas reguladas.
El nudo gordiano de la desinformación
La industria del iGaming ha crecido en paralelo con las redes sociales: los grupos en línea construyen comunidades, fomentan la interacción entre usuarios, y las plataformas sociales se han convertido en un pilar central del marketing y la visibilidad de marca.
Esto incluso ha dado lugar al auge de los influencers del iGaming, con figuras como Roshtein, el “OG” del streaming de slots, atrayendo a grandes cantidades de seguidores comprometidos.

Pero esta expansión viene acompañada de una creciente preocupación por la falta de supervisión regulatoria en estos “terceros espacios”, especialmente en relación con la publicidad.
La desinformación en entornos digitales es un nudo gordiano.
La propia estructura de las plataformas de redes sociales contribuye intrínsecamente a ello.
Al ser sistemas de propiedad privada, sus algoritmos subyacentes son completamente inaccesibles para reguladores y gobiernos.
Algoritmos que amplifican
Sin embargo, pasamos gran parte de nuestras vidas en estas plataformas, alimentando esos algoritmos.
En términos simples, cuanto más interactuamos con algo, más nos lo muestra el algoritmo.
Esto ha llevado a que mucho contenido perjudicial sea priorizado y distribuido, amplificando material engañoso o no verificado. La desinformación no solo está presente, sino que además se amplifica algorítmicamente, siendo prácticamente “potenciada” por diseño, como informó el periódico Financial Times el año pasado.
En noviembre de 2025, Will Horowitz informó para Reuters que los propios datos internos de META proyectaban que el 10 % de sus ingresos de 2024 —aproximadamente 16.000 millones de dólares (11.940 millones de libras)— provenían de anuncios relacionados con estafas y productos prohibidos.
La semana pasada, el mismo equipo descubrió que —a pesar de las promesas de META de reducir las estafas en su plataforma en el Reino Unido— el gigante de las redes sociales no lo había logrado en más de 1.000 ocasiones en solo una semana.
Entre las estafas había numerosos casinos en línea ilícitos, muchos de ellos utilizando deepfakes para atraer a los usuarios a hacer clic.
Esto plantea una cuestión más amplia para la regulación: si los algoritmos de las plataformas juegan un papel decisivo en la difusión y visibilidad del contenido fraudulento generado por IA, entonces su opacidad es claramente un factor determinante.
Los llamados a una mayor transparencia —incluida la posibilidad de que ciertos aspectos de estos sistemas sean accesibles para los reguladores— buscan crear tanto responsabilidad como un entorno de supervisión y regulación efectiva.
El “hack” de la seguridad en línea
A principios de 2026, Ofcom, el regulador de comunicaciones, ha comenzado a redactar nueva legislación para regular los deepfakes en el Reino Unido bajo la Ley de Seguridad en Línea de 2023 y la recientemente adoptada Ley de Uso y Acceso a Datos de 2025.

Pero su propia orientación destaca los límites del marco actual.
Ciertos chatbots de IA quedan completamente fuera del alcance regulatorio cuando operan como sistemas cerrados, no funcionan como servicios de búsqueda o no permiten la interacción entre usuarios. Por lo tanto, técnicamente no están cubiertos por la Ley de Seguridad en Línea, tal como la aplica Ofcom.
Incluso cuando sí están dentro del alcance, esto no significa que todo el contenido que generan esté regulado.
Aunque la Ley de Seguridad en Línea del Reino Unido comenzó a entrar en vigor en marzo de 2025, permitiendo a los reguladores multar a las plataformas por contenido ilegal generado por usuarios, las facultades para actuar sobre anuncios de estafas pagados siguen retrasadas al menos hasta 2027.
Carga
Esto deja la aplicación de la ley dependiente de medidas voluntarias por parte de empresas como Meta, mientras que tanto la Autoridad de Conducta Financiera como Ofcom carecen de autoridad directa para intervenir.
Por ejemplo, los materiales producidos sin acceder a fuentes externas, incluidas imágenes y videos sintéticos, a menudo quedan fuera de la supervisión regulatoria a menos que cumplan ciertos umbrales específicos, como ser pornográficos o compartibles entre usuarios.
En otras palabras, este marco es solo parcial. Puede regular ciertos casos, bajo ciertas condiciones, dentro de ciertos servicios. Pero no puede abordar plenamente cómo se utilizan estos sistemas en la práctica.
Mientras tanto, la carga de las estafas impulsadas por deepfakes sigue recayendo en las plataformas y los usuarios, a pesar de que los sistemas que generan estos riesgos están fuera de su control.
Lo que está claro es que ningún organismo regulador, ni ninguna plataforma por sí sola, puede abordar de manera significativa la amenaza y el impacto negativo de las estafas impulsadas por IA de forma aislada.
Hoy en día, los riesgos habilitados por IA operan a través de sistemas dispares que se gobiernan por separado —si es que se gobiernan.
Solo un enfoque múltiple puede frenar el desafío de la tecnología descontrolada. Y exige responsabilidad compartida y unidad de acción y cumplimiento en todo el ecosistema del iGaming.
Más temas para explorar:
- Carolina Luna: Brasil puede liderar la regulación del iGaming en la región, pero enfrenta riesgos de fragmentación
- Hugo Baungartner analiza el futuro del iGaming en Brasil y América Latina
- Carlos Sabanza Cenzano de Codere: ‘La alianza con Real Madrid pasó de ser visibilidad a convertirse en un acuerdo de confianza’









