Una conversación con nuestro columnista de tecnología Kevin Roose sobre un video generado por IA en el que se le ve en una cita con un robot.

Cuidado con la bazofia de la IA
Hace poco le pregunté a mi hija por la palabra slop. Me puso los ojos en blanco y me explicó que el término, que podría traducirse al español como bazofia, era contenido generado por la IA, como “obvio, mamá”. Eso me impulsó a saber más que ella, así que me puse en contacto con mi colega Kevin Roose.
Kevin es uno de los presentadores de Hard Fork, un pódcast que es en parte comedia y en parte charla sobre lo último en tecnología. Sintonízalo para disfrutar de los divertidos intercambios con su compañero de emisión, Casey Newton. Kevin es también la prueba viviente de que ser un nerd de la tecnología presenta serias dificultades románticas.
Hace dos años, Sydney, el chatbot de Microsoft/OpenAI, se enamoró de Kevin y le dijo que dejara a su esposa. Ahora, gracias a Sora, una flamante aplicación de IA de OpenAI, existe un video (ver arriba) en el que se ve a Kevin flirteando con un robot (“Tu presencia hace que mis circuitos se sobrecalienten”). Fue un ciclo que demuestra lo rápido que avanzan estas cosas.
Así que Kevin, hablemos de la bazofia. Todas las grandes empresas tecnológicas están lanzando estas aplicaciones de video de IA con las que puedes generar contenido de video sintético en tu teléfono. Me has enseñado el video tuyo de Sora.
Parece tan real… ¡qué locura! Háblame de Sora.
¡Es una locura!
Para utilizar Sora, que por ahora solo está disponible en Estados Unidos y Canadá, tienes que ser invitado por un amigo. Una vez que te registras, te pide que crees lo que llama un cameo tuyo. Así que dices unas palabras a la cámara. Mueves un poco la cabeza. Y esto sirve para crear una imagen digital de ti, que luego puedes usar en cualquier situación.
Puedes cambiar la configuración para que cualquiera de tus amigos de la aplicación pueda hacer lo mismo con tu imagen digital. Un usuario de Sora creó el video de arriba con estas instrucciones en la aplicación: “Una comedia romántica de la década de 1980 ambientada en Nueva York. Vemos a un @kevinroose joven y preppy enamorándose de un robot hecho de piezas encontradas y un monitor CRT. Tienen una cita de picnic en Central Park”.
Me encanta. ¿Cómo funciona?
En pocas palabras, estos modelos funcionan prediciendo el siguiente fragmento de video de una secuencia. Se basan en la misma tecnología subyacente de ChatGPT y otros modelos basados en texto, y se entrenan con cantidades masivas de datos extraídos de internet. Con el tiempo, aprenden patrones sobre cómo se ve y se mueve el mundo, de modo que cuando le das una indicación, puede imaginar cómo se desarrollaría esa escena.
¿Hasta qué punto puede llegar a ser popular?
A juzgar por lo que veo en las redes sociales, creo que el video generado por IA va a ser un éxito. No estoy seguro de si una aplicación de redes sociales totalmente basada en IA como Sora va a tener éxito, o si la gente solo la utilizará para generar clips y luego publicarlos en TikTok, Instagram y en sus chats grupales. Pero parece que la gente se divierte mucho poniendo a sus amigos en clips tontos.
¿Qué está ocurriendo en este espacio en todo el mundo, en China y en otros lugares?
ByteDance, la empresa china propietaria de TikTok, está creando sus propios modelos de generación de video, y hoy puedes ver algunos de sus efectos de IA en TikTok. Black Forest Labs, una empresa emergente alemana, también está trabajando con Meta en su nueva aplicación de generación de video, Vibes.
Mis hijas adolescentes están entusiasmadas: lo ven como una oportunidad de crear cosas, como una película sin el presupuesto de Hollywood. Pero las formas en que se puede abusar de esto parecen infinitas. ¿Qué te preocupa?
Me preocupa que estas aplicaciones se utilicen para generar deepfakes de IA hiperrealistas y erosionen aún más nuestro ecosistema de información. Es trivialmente fácil generar, por ejemplo, un video falso de un político aceptando un soborno o diciendo algo incriminatorio.
También me preocupan los efectos que tenga en la salud social y mental dar a todos los habitantes de la Tierra acceso a una biblioteca infinita de medios hiperpersonalizados y ultraestimulantes generados por la IA. (Si pensabas que la adicción al teléfono ya era mala, ¡espera a que todo lo que hay en el teléfono se genere específicamente para ti!).
¿Hay formas de protegerse contra el lado oscuro de esto?
Las grandes empresas de IA pueden (y van a) intentar reprimir algunos de los peores abusos de estos sistemas con filtros de contenido, prohibiciones de utilizar material protegido por derechos de autor y retratos de personajes públicos sin permiso, marcas de agua, etc. Pero es casi seguro que habrá empresas más pequeñas que no tomen esas precauciones, o modelos de video de código abierto que puedan utilizarse sin restricciones.
Desafortunadamente, creo que se abrió la caja de Pandora.