Estafas mediáticas sintéticas en el Reino Unido: ¿Quién soporta la carga del engaño habilitado por la inteligencia artificial?


Con­tin­uan­do su explo­ración del impacto acel­er­a­do de la IA en el sec­tor del iGam­ing, Tril­by Browne, de la Unidad de Inves­ti­ga­ciones Espe­ciales de iGF, destapa las lla­madas estafas de medios “sin­téti­cos” en el Reino Unido.

Aparente­mente de la noche a la mañana, la IA gen­er­a­ti­va se ha arraiga­do pro­fun­da­mente en todos los aspec­tos de nues­tra vida. Her­ramien­tas de IA no opcionales están integradas en platafor­mas que usamos a diario, inclu­i­dos motores de búsque­da y redes sociales. Los lugares de tra­ba­jo fomen­tan su uso. Y la indus­tria del iGam­ing la ha adop­ta­do ple­na­mente.

Des­de la pre­ven­ción del fraude has­ta la iden­ti­fi­cación del juego prob­lemáti­co e inclu­so el mar­ket­ing, las platafor­mas han inte­gra­do cada vez más la IA gen­er­a­ti­va en todos los nive­les de sus opera­ciones.

Pero, al mis­mo tiem­po, está surgien­do un prob­le­ma grave.

Las estafas con medios “sin­téti­cos” —o deep­fakes— han aumen­ta­do de for­ma expo­nen­cial en el últi­mo año.

Según el Accel­er­at­ed Capa­bil­i­ty Envi­ron­ment del Min­is­te­rio del Inte­ri­or, alrede­dor de ocho mil­lones de deep­fakes se com­partieron en el Reino Unido el año pasa­do. Eso es casi cua­tro veces el número com­par­tido en 2023.

Quizás aún más alar­mante, un informe de 2026 de la AI Inci­dent Data­base afir­mó que este tipo de fraude se ha vuel­to “indus­tri­al”.

Y Fred Hei­d­ing, un desta­ca­do inves­ti­gador de la Uni­ver­si­dad de Har­vard que estu­dia las estafas impul­sadas por IA, ha adver­tido que “lo peor está por venir”.

Videos deep­fake

Los estafadores pueden hac­erse pasar por cualquier per­sona con facil­i­dad, ya que la IA gen­er­a­ti­va actual­mente es capaz de crear imita­ciones de voz alta­mente con­vin­centes y videos deep­fake cada vez más sofisti­ca­dos.

La fir­ma de inteligen­cia del sec­tor Gam­bling IQ encon­tró que el fraude en el sec­tor aumen­tó un 73 % entre 2022 y 2024. Y los deep­fakes —uti­liza­dos para super­ar con­troles KYC o come­ter abu­sos masivos de bonos— con­tribuyeron sig­ni­fica­ti­va­mente a este incre­men­to.

Den­tro de este amplio entorno de actores inter­conec­ta­dos, la cuestión de la respon­s­abil­i­dad resul­ta espe­cial­mente com­ple­ja, ya que el fraude con IA está cre­cien­do más rápi­do de lo que los organ­is­mos reg­u­ladores pueden reac­cionar.

El crimen habil­i­ta­do por IA está cau­san­do graves daños per­son­ales y sociales, así como grandes pér­di­das financieras, afir­ma Joe Bur­ton, pro­fe­sor de Seguri­dad y Cien­cia de la Pro­tec­ción en la Escuela de Asun­tos Glob­ales de la Uni­ver­si­dad de Lan­cast­er.

Los sis­temas habil­i­ta­dos por IA —engañosos o no— exis­ten den­tro de un entra­ma­do de actores, deci­siones y estruc­turas de gob­er­nan­za.

Como señaló un impor­tante estu­dio, esto hace que la red resul­tante de respon­s­abil­i­dades sea “com­pli­ca­da”.

En la actu­al­i­dad, la may­oría de los gob­ier­nos y organ­is­mos leg­isla­tivos sim­ple­mente no pueden abor­dar el fraude a esta escala.

Por ejem­p­lo, las fuerzas del orden del Reino Unido fueron cal­i­fi­cadas como “insu­fi­cien­te­mente equipadas para hac­er frente al fraude impul­sa­do por IA” en un informe de 2025 del Alan Tur­ing Insti­tute.

Daños graves

Joe Bur­ton, pro­fe­sor de Seguri­dad y Cien­cia de la Pro­tec­ción en la Escuela de Asun­tos Glob­ales de la Uni­ver­si­dad de Lan­cast­er y autor del informe, describe clara­mente el prob­le­ma:

“El crimen habil­i­ta­do por IA ya está cau­san­do graves daños per­son­ales y sociales y grandes pér­di­das financieras. Nece­si­ta­mos tomarnos en serio nues­tra respues­ta y pro­por­cionar a las fuerzas del orden las her­ramien­tas nece­sarias para desar­tic­u­lar acti­va­mente a los gru­pos crim­i­nales”, advierte.

“Si no lo hace­mos, ver­e­mos una ráp­i­da expan­sión del uso crim­i­nal de las tec­nologías de IA”.

En la actu­al­i­dad, la Comisión de Juego del Reino Unido (UKGC) colo­ca la respon­s­abil­i­dad prin­ci­pal en los oper­adores para pre­venir el deli­to den­tro de la indus­tria reg­u­la­da.

Los oper­adores deben imple­men­tar sus propias políti­cas, pro­ced­imien­tos y con­troles para mit­i­gar ries­gos, que van des­de el fraude y el abu­so de iden­ti­dad has­ta el lava­do de dinero.

Pero con las capaci­dades de la IA desar­rol­lán­dose tan ráp­i­da­mente, las platafor­mas por sí solas no pueden sopor­tar el peso de com­bat­ir el fraude y el engaño impul­sa­dos por IA. Tam­poco deberían hac­er­lo, dado que la con­ver­gen­cia de estafas rela­cionadas con IA en el mun­do del iGam­ing va mucho más allá de las platafor­mas reg­u­ladas.

El nudo gor­diano de la desin­for­ma­ción

La indus­tria del iGam­ing ha cre­ci­do en para­le­lo con las redes sociales: los gru­pos en línea con­struyen comu­nidades, fomen­tan la inter­ac­ción entre usuar­ios, y las platafor­mas sociales se han con­ver­tido en un pilar cen­tral del mar­ket­ing y la vis­i­bil­i­dad de mar­ca.

Esto inclu­so ha dado lugar al auge de los influ­encers del iGam­ing, con fig­uras como Roshtein, el “OG” del stream­ing de slots, atrayen­do a grandes can­ti­dades de seguidores com­pro­meti­dos.

Roshtein, el auto­de­nom­i­na­do «filó­so­fo del juego»

Pero esta expan­sión viene acom­paña­da de una cre­ciente pre­ocu­pación por la fal­ta de super­visión reg­u­la­to­ria en estos “ter­ceros espa­cios”, espe­cial­mente en relación con la pub­li­ci­dad.

La desin­for­ma­ción en entornos dig­i­tales es un nudo gor­diano.

La propia estruc­tura de las platafor­mas de redes sociales con­tribuye intrínse­ca­mente a ello.

Al ser sis­temas de propiedad pri­va­da, sus algo­rit­mos sub­y­a­centes son com­ple­ta­mente inac­ce­si­bles para reg­u­ladores y gob­ier­nos.

Algo­rit­mos que ampli­f­i­can

Sin embar­go, pasamos gran parte de nues­tras vidas en estas platafor­mas, ali­men­tan­do esos algo­rit­mos.

En tér­mi­nos sim­ples, cuan­to más inter­ac­tu­amos con algo, más nos lo mues­tra el algo­rit­mo.

Esto ha lle­va­do a que mucho con­tenido per­ju­di­cial sea pri­or­iza­do y dis­tribui­do, ampli­f­i­can­do mate­r­i­al engañoso o no ver­i­fi­ca­do. La desin­for­ma­ción no solo está pre­sente, sino que además se ampli­fi­ca algo­rít­mi­ca­mente, sien­do prác­ti­ca­mente “poten­ci­a­da” por dis­eño, como infor­mó el per­iódi­co Finan­cial Times el año pasa­do.

En noviem­bre de 2025, Will Horowitz infor­mó para Reuters que los pro­pios datos inter­nos de META proyecta­ban que el 10 % de sus ingre­sos de 2024 —aprox­i­mada­mente 16.000 mil­lones de dólares (11.940 mil­lones de libras)— provenían de anun­cios rela­ciona­dos con estafas y pro­duc­tos pro­hibidos.

La sem­ana pasa­da, el mis­mo equipo des­cubrió que —a pesar de las prome­sas de META de reducir las estafas en su platafor­ma en el Reino Unido— el gigante de las redes sociales no lo había logra­do en más de 1.000 oca­siones en solo una sem­ana.

Entre las estafas había numerosos casi­nos en línea ilíc­i­tos, muchos de ellos uti­lizan­do deep­fakes para atraer a los usuar­ios a hac­er clic.

Esto plantea una cuestión más amplia para la reg­u­lación: si los algo­rit­mos de las platafor­mas jue­gan un papel deci­si­vo en la difusión y vis­i­bil­i­dad del con­tenido fraud­u­len­to gen­er­a­do por IA, entonces su opaci­dad es clara­mente un fac­tor deter­mi­nante.

Los lla­ma­dos a una may­or trans­paren­cia —inclu­i­da la posi­bil­i­dad de que cier­tos aspec­tos de estos sis­temas sean acce­si­bles para los reg­u­ladores— bus­can crear tan­to respon­s­abil­i­dad como un entorno de super­visión y reg­u­lación efec­ti­va.

El “hack” de la seguri­dad en línea

A prin­ci­p­ios de 2026, Ofcom, el reg­u­lador de comu­ni­ca­ciones, ha comen­za­do a redac­tar nue­va leg­is­lación para reg­u­lar los deep­fakes en el Reino Unido bajo la Ley de Seguri­dad en Línea de 2023 y la recien­te­mente adop­ta­da Ley de Uso y Acce­so a Datos de 2025.

Pero su propia ori­entación desta­ca los límites del mar­co actu­al.

Cier­tos chat­bots de IA quedan com­ple­ta­mente fuera del alcance reg­u­la­to­rio cuan­do oper­an como sis­temas cer­ra­dos, no fun­cio­nan como ser­vi­cios de búsque­da o no per­miten la inter­ac­ción entre usuar­ios. Por lo tan­to, téc­ni­ca­mente no están cubier­tos por la Ley de Seguri­dad en Línea, tal como la apli­ca Ofcom.

Inclu­so cuan­do sí están den­tro del alcance, esto no sig­nifi­ca que todo el con­tenido que gen­er­an esté reg­u­la­do.

Aunque la Ley de Seguri­dad en Línea del Reino Unido comen­zó a entrar en vig­or en mar­zo de 2025, per­mi­tien­do a los reg­u­ladores mul­tar a las platafor­mas por con­tenido ile­gal gen­er­a­do por usuar­ios, las fac­ul­tades para actu­ar sobre anun­cios de estafas paga­dos siguen retrasadas al menos has­ta 2027.

Car­ga

Esto deja la apli­cación de la ley depen­di­ente de medi­das vol­un­tarias por parte de empre­sas como Meta, mien­tras que tan­to la Autori­dad de Con­duc­ta Financiera como Ofcom care­cen de autori­dad direc­ta para inter­venir.

Por ejem­p­lo, los mate­ri­ales pro­duci­dos sin acced­er a fuentes exter­nas, inclu­idas imá­genes y videos sin­téti­cos, a menudo quedan fuera de la super­visión reg­u­la­to­ria a menos que cum­plan cier­tos umbrales especí­fi­cos, como ser pornográ­fi­cos o com­part­ibles entre usuar­ios.

En otras pal­abras, este mar­co es solo par­cial. Puede reg­u­lar cier­tos casos, bajo cier­tas condi­ciones, den­tro de cier­tos ser­vi­cios. Pero no puede abor­dar ple­na­mente cómo se uti­lizan estos sis­temas en la prác­ti­ca.

Mien­tras tan­to, la car­ga de las estafas impul­sadas por deep­fakes sigue recayen­do en las platafor­mas y los usuar­ios, a pesar de que los sis­temas que gen­er­an estos ries­gos están fuera de su con­trol.

Lo que está claro es que ningún organ­is­mo reg­u­lador, ni ningu­na platafor­ma por sí sola, puede abor­dar de man­era sig­ni­fica­ti­va la ame­naza y el impacto neg­a­ti­vo de las estafas impul­sadas por IA de for­ma ais­la­da.

Hoy en día, los ries­gos habil­i­ta­dos por IA oper­an a través de sis­temas dis­pares que se gob­ier­nan por sep­a­ra­do —si es que se gob­ier­nan.

Solo un enfoque múlti­ple puede fre­nar el desafío de la tec­nología descon­tro­la­da. Y exige respon­s­abil­i­dad com­par­ti­da y unidad de acción y cumplim­ien­to en todo el eco­sis­tema del iGam­ing.

Más temas para explo­rar:

Publicado en:

Categories
Presentado