¿Es eso una transmisión de noticias o un argumento de venta? Los nuevos vídeos de IA hacen que sea difícil saberlo

En una breve publicación de video, un influencer discrepa con una noticia televisiva de California. Las imágenes transmitidas detrás de ella parecen auténticas, con un presentador que llama a los espectadores a la acción, víctimas e incluso un logotipo de CNN.

«Las víctimas de accidentes en California reciben pagos increíbles», dice el locutor encima de un cartel que promociona «ÚLTIMAS NOTICIAS».

Pero lo que podría ser una estrella de las redes sociales entusiasmada con las noticias locales es en realidad un anuncio para atraer a las personas a contratar servicios legales. Y gran parte de eso es generado por inteligencia artificial.

Con una gran cantidad de nuevas herramientas de video de IA y nuevas formas de compartirlas lanzadas en los últimos meses, la línea entre noticieros y argumentos de venta está comenzando a desdibujarse.

Los abogados de lesiones personales son conocidos desde hace mucho tiempo por sus anuncios exagerados. Utilizan los últimos métodos (radio, televisión, números 1-800, vallas publicitarias, paradas de autobús y publirreportajes) para introducir sus marcas en la conciencia del consumidor. Los anuncios son deliberadamente repetitivos, escandalosos y pegadizos, de modo que si los espectadores tienen un accidente, recuerdan a quién llamar.

Ahora están utilizando la IA para crear una nueva ola de anuncios que sean más atractivos, atractivos y locales.

«La publicidad en línea tanto para bienes como para servicios utiliza personas generadas por IA y réplicas de personas influyentes generadas por IA para promocionar su marca sin revelar la naturaleza sintética de las personas representadas», dijo Alexios Mantzarlis, director de confianza, seguridad y protección de Cornell Tech. «Esta tendencia no es alentadora para la búsqueda de la verdad en la publicidad».

No son sólo las noticias de televisión las que están siendo clonadas por robots. Los titulares estridentes en las noticias de la gente son generados cada vez más por la IA en nombre de los anunciantes.

En un anuncio en línea sobre alivio de la deuda, un hombre sostiene un periódico con un titular que sugiere que los residentes de California con una deuda de 20.000 dólares califican para recibir ayuda. El anuncio muestra a los prestatarios haciendo fila para recibir el beneficio. Según los expertos, el hombre, el periódico ‘Forbes’ que sostiene y la fila de personas son todos generados por IA.

A pesar de las crecientes críticas a lo que algunos llaman «deterioro de la IA», las empresas han seguido lanzando herramientas cada vez más potentes para generar vídeos realistas de IA, lo que facilita la creación de sofisticadas historias y transmisiones de noticias falsas.

Meta presentó recientemente Vibes, una aplicación dedicada para crear y compartir videos cortos generados por IA. Días después, OpenAI lanzó su propia aplicación Sora para compartir videos con IA, con un modelo actualizado de generación de video y audio.

La función ‘Cameo’ de Sora permite a los usuarios insertar su propia imagen o la de un amigo en vídeos cortos y fotorrealistas de IA. Los videos tardan unos segundos en crearse.

Desde su lanzamiento el viernes pasado, la aplicación Sora ha llegado a la cima de la clasificación de descargas de la App Store. OpenAI anima a las empresas y desarrolladores a utilizar sus herramientas para desarrollar y promocionar sus productos y servicios.

“Esperamos que ahora con el vídeo de Sora 2 en el [Application Programming Interface]»Generarás los mismos videos de alta calidad directamente en tus productos, completos con sonido realista y sincronizado, y encontrarás todo tipo de cosas nuevas y geniales para construir», dijo Sam Altman, CEO de OpenAI, a los desarrolladores esta semana.

Lo que está surgiendo es una nueva clase de plataformas de redes sociales sintéticas que permiten a los usuarios crear, compartir y descubrir contenido generado por IA en un feed personalizado adaptado a los gustos individuales.

Imagine un flujo constante de videos que son tan adictivos y virales como los de TikTok, pero a menudo es imposible saber cuáles son reales.

El peligro, dicen los expertos, es que se puedan utilizar estas nuevas y poderosas herramientas, que ahora son asequibles para casi todos. En otros países, actores respaldados por el Estado han utilizado noticias e historias generadas por IA para difundir desinformación.

Los expertos en seguridad en línea dicen que la IA, que produce historias, propaganda y anuncios cuestionables, en algunos casos está ahogando el contenido generado por humanos y empeorando el ecosistema de la información.

YouTube tuvo que eliminar cientos de videos generados por inteligencia artificial en los que aparecían celebridades, incluida Taylor Swift, que promocionaban estafas de Medicare. Spotify ha eliminado millones de pistas de música generadas por IA. El FBI estima que los estadounidenses han perdido 50 mil millones de dólares a estafas deepfake desde 2020.

El año pasado, un periodista de Los Angeles Times fue declarado muerto erróneamente por presentadores de noticias de AI.

En el mundo de la publicidad de servicios legales, que tiene un historial de traspasar los límites, a algunos les preocupa que el rápido avance de la IA facilite la elusión de las restricciones. Es una línea muy fina, ya que los anuncios legales pueden ser dramáticos, pero no deberían prometer resultados ni pagos.

Los noticieros de IA que muestran a víctimas de IA que realizan importantes controles de IA están probando un nuevo territorio, dice Samuel Hyams-Millard, asociado del bufete de abogados SheppardMulin.

«Alguien podría ver eso y pensar que realmente, oh, a esa persona realmente le pagaron esa cantidad. Esto en realidad aparece en las noticias, cuando tal vez no sea así», dijo. «Eso es un problema».

Un pionero en este campo es Case Connect AI. La empresa publica anuncios patrocinados en YouTube Shorts y Facebook, dirigidos a personas involucradas en accidentes automovilísticos y otras lesiones personales. También utiliza inteligencia artificial para que los usuarios sepan cuánto pueden obtener de una demanda.

En un anuncio, un influenciador emocionado de las redes sociales dice que las compañías de seguros están tratando de cerrar Case Connect porque la «calculadora de compensación» les está costando mucho.

Luego, el anuncio pasa a un clip de noticias de cinco segundos sobre los pagos que reciben los usuarios. El actor reaparece y señala otro video corto de lo que parecen ser parejas sosteniendo cheques de gran tamaño y celebrando.

«Todos los que estaban detrás de mí usaron la aplicación y recibieron un pago enorme», dice el influencer. «Y ahora es tu turno».

En septiembre, al menos media docena de anuncios cortos de YouTube de Case Connect presentaban presentadores de noticias generados por IA o testimonios de personas inventadas, según anuncios encontrados en el sitio web Google Ads Transparency.

Case Connect no siempre utiliza humanos generados por IA. A veces utiliza robots generados por IA o incluso monos para difundir su mensaje. La compañía dijo que utiliza el modelo Veo 3 de Google para crear videos. No compartió qué partes de sus comerciales eran IA.

Angelo Perone, fundador de Case Connect, con sede en Pensilvania, dice que la compañía ha estado publicando anuncios en las redes sociales que utilizan inteligencia artificial para dirigirse a usuarios en California y otros estados que pueden haber sufrido accidentes automovilísticos, accidentes u otras lesiones personales para potencialmente registrarse como clientes.

“Nos da un superpoder para conectarnos con personas que han resultado heridas en accidentes automovilísticos para que podamos atenderlas y ubicarlas con el abogado adecuado para su situación”, dijo.

Su empresa genera clientes potenciales para bufetes de abogados y se le compensa con una tarifa fija o un anticipo mensual de las empresas. No ejerce la abogacía.

«Estamos navegando en este espacio como todos los demás: tratando de hacerlo de manera responsable sin dejar de ser efectivos», dijo Perone en un correo electrónico. «Siempre hay un equilibrio entre conocer a las personas donde están y conectarse con ellas de una manera que resuene, sin prometer demasiado, no cumplir lo suficiente ni engañar a nadie».

Perone dijo que Case Connect cumple con las normas y reglamentos relacionados con la publicidad legal.

«Todo se apega a las exenciones de responsabilidad y al lenguaje apropiado», dijo.

Algunos abogados y especialistas en marketing dicen que su empresa va demasiado lejos.

En enero, Robert Simon, abogado litigante y cofundador de Simon Law Group, publicó vídeo en Instagram dicen que algunos anuncios de Case Connect que parecían estar dirigidos a las víctimas de los incendios del condado de Los Ángeles eran «atroces», advirtiendo a la gente sobre la calculadora de daños.

Como parte de los Abogados del Consumidor de California, un grupo legislativo de cabildeo de consumidores, Simon dijo que ayudó a redactar el Proyecto de Ley Senatorial 37 para abordar la publicidad engañosa. Era un problema mucho antes de que surgiera la IA.

«Hemos estado hablando de esto durante mucho tiempo al poner barreras para una mayor ética para los abogados», dijo Simon.

Se estima que el mercado de lesiones personales es de 61 mil millones de dólares en Estados Unidos, y Los Ángeles es uno de los mayores centros para este negocio.

Hyams-Millard dijo que incluso si Case Connect no es una firma de abogados, los abogados que trabajan con ella podrían ser considerados responsables de la naturaleza potencialmente engañosa de los anuncios.

Incluso algunas empresas de generación de leads reconocen que algunas agencias podrían hacer un mal uso de la IA y llevar a la industria publicitaria a aguas peligrosas e inexploradas.

“La necesidad de barreras protectoras no es nueva”, afirma Vince Wingerter, fundador de 4LegalLeads, una empresa de generación de leads. «Lo nuevo es que la tecnología ahora es más poderosa y tiene más capas».





Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí