El Uso de la IA en el Fraude Publicitario y la Desinformación

El Uso de la IA en el Fraude Publicitario y la Desinformación

Los estafadores de publicidad están monitoreando de cerca las innovaciones en AdTech. Ahora están explotando activamente una de estas tendencias — la inteligencia artificial.

Según un nuevo informe de DoubleVerify, la IA se utiliza a menudo en esquemas fraudulentos sofisticados que involucran publicidad en varias plataformas, incluidas CTV y transmisión de audio. El informe afirma que la IA estuvo involucrada en el 23% de los nuevos esquemas fraudulentos en 2023, lo que provocó un aumento del 58% en el fraude publicitario. Este informe examina datos de 1 billón de impresiones para 2000 anunciantes en 100 países en computadoras, dispositivos móviles y televisores. Los investigadores también notan un aumento del 269% en el fraude de bots.

DoubleVerify (DV) es una empresa especializada en soluciones de verificación de publicidad. Ayuda a los anunciantes a asegurarse de que sus anuncios se muestren en un entorno seguro y adecuado. DV proporciona herramientas para la prevención del fraude, mejorar la visibilidad de los anuncios y garantizar el cumplimiento de los requisitos de los anunciantes.

La IA simplifica la suplantación de datos, haciendo que el tráfico fraudulento parezca humano. La IA ayuda a los estafadores a crear sitios web falsos de empresas, aplicaciones maliciosas y generar reseñas falsas en las tiendas de aplicaciones.

Jack Smith, Director de Innovación en DV, dijo que en 2023, el fraude publicitario impulsado por IA en CTV creció tres veces más rápido que en 2022. Cree que esto continuará en 2024 porque la IA se está volviendo más fuerte, más grande y más fácil de usar.

"Esto es un problema tanto para los anunciantes como para los editores," dijo Smith a Digiday. "Quita dinero del buen tráfico. Si falsificas una aplicación, drenas dinero del ecosistema. Es malo para todos."

Aquí hay dos ejemplos de esquemas fraudulentos impulsados por IA: FM Scam y CycloneBot. CycloneBot es una estafa en CTV que es extremadamente difícil de detectar. Utiliza IA para crear sesiones de visualización largas en dispositivos inexistentes, cuadruplicando el tráfico. FM Scam se utiliza en la transmisión de audio y emplea IA para crear tráfico falso que parece actividad normal del usuario. Según DV, en marzo de 2024, se utilizó para simular la actividad en 500,000 dispositivos. Este es el primer caso de fraude publicitario dirigido a altavoces inteligentes.

Todo esto es costoso para los anunciantes. DV informa que FM Scam es parte de un proyecto de fraude global llamado BeatString, que lleva a pérdidas de tráfico de más de 1 millón de dólares al mes. Mientras tanto, CycloneBot se ha utilizado para falsificar hasta 250 millones de solicitudes de anuncios, simulando alrededor de 1.5 millones de dispositivos diariamente y costando a los anunciantes 7.5 millones de dólares al mes.

Pero eso no es todo. El informe de DV afirma que el uso de IA aumentó la cantidad de sitios MFA en un 20%. En una encuesta realizada por DV y Sapio Research entre 1000 anunciantes, el 57% dijo que considera el contenido generado por IA un problema. Y el 54% cree que el contenido generado por IA degrada la calidad de los medios.

Las reseñas y opiniones generadas por IA pueden crear la ilusión de interés del usuario en aplicaciones móviles, así como ayudar a enmascarar aplicaciones fraudulentas. Como resultado, DV ha tenido que duplicar el número de investigaciones sobre aplicaciones potencialmente fraudulentas en el último año. Como ejemplo, Smith mencionó las aplicaciones clásicas de fondos de pantalla, así como otras como una aplicación que permite a las personas dejar la televisión encendida para sus mascotas.

Desinformación y Fraude Publicitario con IA

Los expertos dicen que no están sorprendidos por el aumento del fraude publicitario impulsado por IA. Los investigadores de NewsGuard han analizado cómo la IA y la publicidad pueden ayudar a difundir noticias falsas.

NewsGuard es una empresa que evalúa la fiabilidad y transparencia de los sitios web de noticias, proporcionando a los usuarios información sobre la calidad de las fuentes de noticias. El sistema de NewsGuard utiliza un equipo de periodistas experimentados para evaluar sitios de noticias basándose en varios criterios, como la precisión, la responsabilidad y la transparencia de los propietarios.

"Hace más de un año, dijimos que la IA se convertiría en una herramienta poderosa para difundir desinformación," dijo Steven Brill, cofundador de NewsGuard. "La investigación de DV confirma esta amenaza. En uno de nuestros informes, describimos un caso en el que un solo estafador podría ser responsable de cientos de sitios falsos que se hacen pasar por noticias reales y promueven contenido destinado a influir en el resultado de las elecciones estadounidenses."

Aproximadamente el 75% de los sitios de noticias falsas también muestran anuncios a los usuarios, según un estudio conjunto de NewsGuard, la Universidad de Stanford y Carnegie Mellon. El informe, publicado en Nature, afirma que entre el 46% y el 82% de los anunciantes han colocado inadvertidamente sus anuncios en estos sitios. Los investigadores recomiendan abordar este problema a través de plataformas que hagan la publicidad más transparente. Pero los anunciantes han estado tratando de resolver este problema durante muchos años.

DoubleVerify afirma que sus sistemas basados en IA ayudan a detectar esquemas de fraude publicitario, pero algunos dudan de la fiabilidad de este enfoque. Recientemente, las empresas de medición a menudo enfrentan conflictos de intereses, ya que sus servicios son utilizados por las mismas compañías que deben medir y evaluar.

Otros materiales sobre este tema: