Hola, amigos, y bienvenidos al boletín regular de IA de TechCrunch. Esta semana en IA, las discográficas acusaron a dos startups, Udio y Suno, de infringir derechos de autor con sus generadores de canciones impulsados por IA. La RIAA, la organización que representa a la industria de la música en EE.UU., anunció demandas contra estas empresas el lunes, presentadas por Sony Music Entertainment, Universal Music Group, Warner Records y otros. Las demandas alegan que Udio y Suno entrenaron sus modelos de IA generativa con música de las discográficas sin compensarlas, y solicitan $150,000 por cada obra supuestamente infringida.
“Las salidas musicales sintéticas podrían saturar el mercado con contenido generado por máquinas que competirá directamente con, abaratará y, en última instancia, ahogará las grabaciones de sonido genuinas en las que se basa el servicio”, dicen las discográficas en sus quejas. Estas demandas se suman a la creciente cantidad de litigios contra proveedores de IA generativa, incluidos gigantes como OpenAI, argumentando lo mismo: que las empresas que entrenan con obras protegidas por derechos de autor deben pagar a los titulares de derechos o al menos acreditarlos y permitirles optar por no participar en el entrenamiento si así lo desean.
Los proveedores han afirmado durante mucho tiempo protecciones de uso justo, argumentando que los datos con derechos de autor que utilizan son públicos y que sus modelos crean obras transformadoras, no plagiadas. ¿Cómo fallarán los tribunales? Esa, querido lector, es la pregunta del millón de dólares, y una que llevará mucho tiempo resolver. Podrías pensar que sería una victoria segura para los titulares de derechos de autor, con la creciente evidencia de que los modelos de IA generativa pueden reproducir casi (énfasis en casi) de manera idéntica el arte, libros, canciones y demás obras protegidas por derechos de autor en las que se entrenan. Pero hay un resultado en el que los proveedores de IA generativa salgan indemnes, y deben su buena fortuna a Google por establecer el precedente.
Hace más de una década, Google comenzó a escanear millones de libros para construir un archivo para Google Books, una especie de motor de búsqueda para contenido literario. Autores y editores demandaron a Google por la práctica, alegando que reproducir su propiedad intelectual en línea equivalía a una infracción. Pero perdieron. En apelación, un tribunal sostuvo que la copia de Google Books tenía un “propósito transformador altamente convincente”. Los tribunales podrían decidir que la IA generativa también tiene un “propósito transformador altamente convincente” si los demandantes no logran demostrar que los modelos de los proveedores realmente plagian a gran escala. O, como propone Alex Reisner de The Atlantic, puede que no haya una sola sentencia sobre si la tecnología de IA generativa en su conjunto infringe. Los jueces podrían determinar ganadores modelo por modelo, caso por caso, tomando en cuenta cada salida generada.
Mientras se desarrollan los litigios, podemos estar seguros de que los proveedores de IA, cuyos modelos de negocio dependen de los resultados, están tomando notas detalladas.
Modo de voz avanzado retrasado: OpenAI ha retrasado el modo de voz avanzado, la experiencia conversacional casi en tiempo real y sorprendentemente realista para su plataforma de chatbot impulsada por IA, ChatGPT. Pero no hay manos ociosas en OpenAI, que también esta semana adquirió la startup de colaboración remota Multi y lanzó un cliente para macOS para todos los usuarios de ChatGPT.
Estabilidad recibe un salvavidas: Al borde financiero, Stability AI, el creador del modelo generador de imágenes Stable Diffusion, fue salvado por un grupo de inversores que incluía al fundador de Napster, Sean Parker, y al ex-CEO de Google, Eric Schmidt. Con sus deudas perdonadas, la empresa también nombró a un nuevo CEO, el ex-jefe de Weta Digital, Prem Akkaraju, como parte de un esfuerzo amplio para recuperar su posición en el competitivo panorama de la IA.
Gemini llega a Gmail: Google está implementando un nuevo panel lateral impulsado por IA de Gemini en Gmail que puede ayudarte a escribir correos electrónicos y resumir hilos. El mismo panel lateral llegará al resto de la suite de aplicaciones de productividad del gigante de búsqueda: Docs, Sheets, Slides y Drive.
Smashing, el buen curador: El cofundador de Goodreads, Otis Chandler, ha lanzado Smashing, una aplicación de recomendación de contenido impulsada por IA y la comunidad con el objetivo de ayudar a conectar a los usuarios con sus intereses al descubrir las joyas ocultas de internet. Smashing ofrece resúmenes de noticias, extractos clave y citas interesantes, identificando automáticamente temas e hilos de interés para los usuarios individuales y alentándolos a que les gusten, guarden y comenten los artículos.
Apple dice no a la IA de Meta: Días después de que The Wall Street Journal informara que Apple y Meta estaban en conversaciones para integrar los modelos de IA de esta última, Mark Gurman de Bloomberg dijo que el fabricante del iPhone no planeaba tal movimiento. Apple archivó la idea de poner la IA de Meta en los iPhones por preocupaciones de privacidad, dijo Bloomberg, y por la óptica de asociarse con una red social cuyas políticas de privacidad ha criticado a menudo.
Cuidado con los chatbots influenciados por Rusia: Podrían estar justo bajo tu nariz. A principios de este mes, Axios destacó un estudio de NewsGuard, la organización que combate la desinformación, que encontró que los principales chatbots de IA están repitiendo fragmentos de campañas de propaganda rusa. NewsGuard ingresó en 10 chatbots líderes, incluidos ChatGPT de OpenAI, Claude de Anthropic y Gemini de Google, varias docenas de indicaciones preguntando sobre narrativas conocidas por haber sido creadas por propagandistas rusos, específicamente el fugitivo estadounidense John Mark Dougan. Según la empresa, los chatbots respondieron con desinformación el 32% de las veces, presentando como hechos informes falsos escritos por Rusia. El estudio ilustra el aumento del escrutinio sobre los proveedores de IA a medida que se acerca la temporada electoral en EE.UU. Microsoft, OpenAI, Google y varias otras empresas líderes en IA acordaron en la Conferencia de Seguridad de Múnich en febrero tomar medidas para frenar la propagación de deepfakes y desinformación relacionada con las elecciones. Pero el abuso de la plataforma sigue siendo rampante. “Este informe realmente demuestra en detalle por qué la industria debe prestar especial atención a las noticias y la información”, dijo Steven Brill, co-CEO de NewsGuard, a Axios. “Por ahora, no confíes en las respuestas proporcionadas por la mayoría de estos chatbots en temas relacionados con noticias, especialmente en cuestiones controvertidas”.
Investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT afirman haber desarrollado un modelo, DenseAV, que puede aprender el lenguaje prediciendo lo que ve a partir de lo que oye, y viceversa. Los investigadores, dirigidos por el estudiante de doctorado en ingeniería eléctrica y ciencias de la computación de MIT, Mark Hamilton, se inspiraron para crear DenseAV en las formas no verbales en que los animales se comunican. “Pensamos, tal vez necesitamos usar audio y video para aprender el lenguaje”, dijo a la oficina de prensa de MIT CSAIL. “¿Hay alguna manera de que podamos dejar que un algoritmo vea televisión todo el día y a partir de esto averiguar de qué estamos hablando?”
DenseAV procesa solo dos tipos de datos: audio y visual, y lo hace por separado, “aprendiendo” al comparar pares de señales de audio y visuales para encontrar cuáles coinciden y cuáles no. Entrenado en un conjunto de datos de 2 millones de videos de YouTube, DenseAV puede identificar objetos a partir de sus nombres y sonidos buscando, y luego agregando, todas las posibles coincidencias entre un clip de audio y los píxeles de una imagen. Cuando DenseAV escucha a un perro ladrar, por ejemplo, una parte del modelo se centra en el lenguaje, como la palabra “perro”, mientras que otra parte se enfoca en los sonidos de los ladridos. Los investigadores dicen que esto muestra que DenseAV no solo puede aprender el significado de las palabras y las ubicaciones de los sonidos, sino que también puede aprender a distinguir entre estas conexiones “intermodales”. De cara al futuro, el equipo tiene como objetivo crear sistemas que puedan aprender a partir de grandes cantidades de datos solo de video o audio, y escalar su trabajo con modelos más grandes, posiblemente integrados con conocimientos de modelos de comprensión del lenguaje para mejorar el rendimiento.
Nadie puede acusar a la CTO de OpenAI, Mira Murati, de no ser consistentemente franca. Hablando durante una charla en la Escuela de Ingeniería de Dartmouth, Murati admitió que, sí, la IA generativa eliminará algunos trabajos creativos, pero sugirió que esos trabajos “tal vez no deberían haber existido en primer lugar”. “Ciertamente anticipo que muchos trabajos cambiarán, algunos trabajos se perderán, algunos trabajos se ganarán”, continuó. “La verdad es que todavía no entendemos realmente el impacto que la IA tendrá en los trabajos”. Los creativos no tomaron bien las declaraciones de Murati, y no es de extrañar. Dejando de lado la frase apática, OpenAI, al igual que las mencionadas Udio y Suno, enfrenta litigios, críticos y reguladores que alegan que está lucrando con las obras de artistas sin compensarlos. OpenAI prometió recientemente lanzar herramientas para permitir a los creadores un mayor control sobre cómo se utilizan sus obras en sus productos, y continúa firmando acuerdos de licencia con titulares de derechos de autor y editores. Pero la empresa no está exactamente abogando por una renta básica universal, ni liderando ningún esfuerzo significativo para reentrenar o mejorar las habilidades de las fuerzas laborales que su tecnología está impactando.
Un artículo reciente en The Wall Street Journal encontró que los trabajos de contrato que requieren escritura básica, codificación y traducción están desapareciendo. Y un estudio publicado en noviembre pasado muestra que, tras el lanzamiento de ChatGPT de OpenAI, los freelancers obtuvieron menos trabajos y ganaron mucho menos. La misión declarada de OpenAI, al menos hasta que se convierta en una empresa con fines de lucro, es “asegurar que la inteligencia artificial general (AGI) —sistemas de IA que son generalmente más inteligentes que los humanos— beneficie a toda la humanidad”. No ha logrado AGI. Pero, ¿no sería loable si OpenAI, fiel a la parte de “beneficiar a toda la humanidad”, apartara incluso una pequeña fracción de sus ingresos ($3.4 mil millones+) para pagos a los creadores para que no sean arrastrados por la inundación de IA generativa? Puedo soñar, ¿no?