Hola, amigos, bienvenidos al boletín regular de IA de TechCrunch. El pasado domingo, el presidente Joe Biden anunció que no buscará la reelección y, en su lugar, ofreció su “total apoyo” a la vicepresidenta Kamala Harris como candidata del Partido Demócrata. En los días siguientes, Harris obtuvo el respaldo de la mayoría de los delegados demócratas. Harris ha sido muy vocal sobre la política tecnológica y de IA; si gana la presidencia, ¿qué significaría eso para la regulación de IA en EE.UU.?
Harris y el presidente Biden han dicho anteriormente que “rechazan la falsa elección que sugiere que podemos proteger al público o avanzar en la innovación”. En ese momento, Biden emitió una orden ejecutiva pidiendo a las empresas establecer nuevos estándares en el desarrollo de IA. Harris mencionó que los compromisos voluntarios eran “un paso inicial hacia un futuro de IA más seguro con más por venir” porque “en ausencia de regulación y una fuerte supervisión gubernamental, algunas empresas tecnológicas eligen priorizar las ganancias sobre el bienestar de sus clientes, la seguridad de nuestras comunidades y la estabilidad de nuestras democracias”.
Hablé con expertos en políticas de IA para conocer sus opiniones. En su mayoría, dijeron que esperarían consistencia con una administración de Harris, en lugar de un desmantelamiento de la política actual de IA y la desregulación general que ha defendido el campamento de Donald Trump. Lee Tiedrich, consultora de IA en la Asociación Global sobre Inteligencia Artificial, dijo a TechCrunch que el apoyo de Biden a Harris podría “aumentar las posibilidades de mantener la continuidad” en la política de IA de EE.UU. “Esto está enmarcado por la orden ejecutiva de IA de 2023 y también marcado por el multilateralismo a través de las Naciones Unidas, el G7, la OCDE y otras organizaciones”, dijo. “La orden ejecutiva y las acciones relacionadas también piden una mayor supervisión gubernamental de la IA, incluyendo una mayor aplicación, reglas y políticas de IA más estrictas de las agencias, un enfoque en la seguridad y ciertas pruebas y divulgaciones obligatorias para algunos sistemas de IA grandes”.
Sarah Kreps, profesora de gobierno en Cornell con un interés especial en IA, señaló que hay una percepción dentro de ciertos segmentos de la industria tecnológica de que la administración de Biden se inclinó demasiado hacia la regulación y que la orden ejecutiva de IA fue “una microgestión excesiva”. No anticipa que Harris revierta ninguno de los protocolos de seguridad de IA instituidos bajo Biden, pero se pregunta si una administración de Harris podría adoptar un enfoque regulatorio menos jerárquico para apaciguar a los críticos.
Krystal Kauffman, investigadora en el Instituto de Investigación de IA Distribuida, está de acuerdo con Kreps y Tiedrich en que Harris probablemente continuará el trabajo de Biden para abordar los riesgos asociados con el uso de IA y buscará aumentar la transparencia en torno a la IA. Sin embargo, espera que, si Harris gana la elección presidencial, incluya una mayor variedad de partes interesadas en la formulación de políticas, capturando a los trabajadores de datos cuyas dificultades (mal pago, malas condiciones laborales y desafíos de salud mental) a menudo no se reconocen. “Harris debe incluir las voces de los trabajadores de datos que ayudan a programar la IA en estas importantes conversaciones en el futuro”, dijo Kauffman. “No podemos seguir viendo reuniones a puerta cerrada con directores ejecutivos de tecnología como un medio para elaborar políticas. Esto nos llevará absolutamente por el camino equivocado si continúa”.
Meta lanza nuevos modelos: Esta semana, Meta lanzó Llama 3.1 405B, un modelo generador y analizador de texto que contiene 405 mil millones de parámetros. Su modelo “abierto” más grande hasta la fecha, Llama 3.1 405B, está llegando a varias plataformas y aplicaciones de Meta, incluyendo la experiencia de Meta AI en Facebook, Instagram y Messenger.
Adobe actualiza Firefly: Adobe lanzó nuevas herramientas de Firefly para Photoshop e Illustrator el martes, ofreciendo a los diseñadores gráficos más formas de usar los modelos de IA internos de la compañía.
Reconocimiento facial en la escuela: Una escuela inglesa ha sido formalmente reprendida por el regulador de protección de datos del Reino Unido después de usar tecnología de reconocimiento facial sin obtener el consentimiento específico de los estudiantes para procesar sus escaneos faciales.
Cohere recauda medio billón: Cohere, una startup de IA generativa cofundada por ex-investigadores de Google, ha recaudado $500 millones en nuevos fondos de inversores, incluyendo Cisco y AMD. A diferencia de muchos de sus rivales en el ámbito de la IA generativa, Cohere personaliza modelos de IA para grandes empresas, un factor clave en su éxito.
Entrevista con la directora de IA de la CIA: Como parte de la serie continua “Mujeres en IA” de TechCrunch, entrevisté a Lakshmi Raman, la directora de IA en la CIA. Hablamos sobre su camino hacia la dirección, así como el uso de la IA por parte de la CIA y el equilibrio que debe lograrse entre adoptar nuevas tecnologías y desplegarlas de manera responsable.
¿Has oído hablar del transformador? Es la arquitectura de modelo de IA preferida para tareas de razonamiento complejo, impulsando modelos como GPT-4 de OpenAI, Claude de Anthropic y muchos otros. Pero, por poderosos que sean los transformadores, tienen sus fallas. Por eso, los investigadores están investigando posibles alternativas. Uno de los candidatos más prometedores son los modelos de espacio de estado (SSM), que combinan las cualidades de varios tipos más antiguos de modelos de IA, como redes neuronales recurrentes y redes neuronales convolucionales, para crear una arquitectura más eficiente computacionalmente capaz de ingerir largas secuencias de datos (piensa en novelas y películas). Y una de las encarnaciones más fuertes de los SSM hasta ahora, Mamba-2, fue detallada en un artículo este mes por los científicos de investigación Tri Dao (profesor en Princeton) y Albert Gu (Carnegie Mellon). Al igual que su predecesor Mamba, Mamba-2 puede manejar trozos más grandes de datos de entrada que los equivalentes basados en transformadores, mientras se mantiene competitivo, en términos de rendimiento, con modelos basados en transformadores en ciertas tareas de generación de lenguaje. Dao y Gu sugieren que, si los SSM continúan mejorando, algún día funcionarán en hardware común y ofrecerán aplicaciones de IA generativa más poderosas de lo que es posible con los transformadores actuales.
En otro desarrollo reciente relacionado con la arquitectura, un equipo de investigadores desarrolló un nuevo tipo de modelo de IA generativa que, según afirman, puede igualar o superar a los transformadores más fuertes y a Mamba en términos de eficiencia. Llamados modelos de entrenamiento en tiempo de prueba (TTT models), la arquitectura puede razonar sobre millones de tokens, según los investigadores, potencialmente escalando hasta miles de millones de tokens en diseños futuros y refinados. (En la IA generativa, los “tokens” son bits de texto sin procesar y otros pequeños fragmentos de datos). Debido a que los modelos TTT pueden absorber muchos más tokens que los modelos convencionales y hacerlo sin sobrecargar excesivamente los recursos de hardware, los investigadores creen que están preparados para impulsar aplicaciones de IA generativa de “próxima generación”. Para una inmersión más profunda en los modelos TTT, consulta nuestro artículo reciente.
Stability AI, la startup de IA generativa que los inversores, incluyendo al cofundador de Napster Sean Parker, recientemente rescataron de la ruina financiera, ha causado bastante controversia por sus nuevos términos de uso y políticas de licencias restrictivas. Hasta hace poco, para usar comercialmente el modelo de imagen de IA abierta más reciente de Stability AI, Stable Diffusion 3, las organizaciones que ganaban menos de $1 millón al año en ingresos tenían que inscribirse en una licencia de “creador” que limitaba el número total de imágenes que podían generar a 6,000 por mes. El problema más grande para muchos clientes, sin embargo, eran los términos restrictivos de ajuste fino de Stability, que daban (o al menos parecían dar) a Stability AI el derecho de extraer tarifas y ejercer control sobre cualquier modelo entrenado en imágenes generadas por Stable Diffusion 3. El enfoque de mano dura de Stability AI llevó a CivitAI, uno de los mayores anfitriones de modelos generadores de imágenes, a imponer una prohibición temporal a los modelos basados o entrenados en imágenes de Stable Diffusion 3 mientras buscaba asesoría legal sobre la nueva licencia. “La preocupación es que, según nuestro entendimiento actual, esta licencia otorga a Stability AI demasiado poder sobre el uso no solo de cualquier modelo afinado en Stable Diffusion 3, sino de cualquier otro modelo que incluya imágenes de Stable Diffusion 3 en sus conjuntos de datos”, escribió CivitAI en una publicación en su blog. En respuesta a la reacción, Stability AI a principios de este mes dijo que ajustará los términos de licencia para Stable Diffusion 3 para permitir un uso comercial más liberal. “Siempre y cuando no lo uses para actividades que sean ilegales o que violen claramente nuestra licencia o política de uso aceptable, Stability AI nunca te pedirá que elimines las imágenes resultantes, ajustes finos u otros productos derivados, incluso si nunca pagas a Stability AI”, aclaró Stability en un blog. La saga destaca las trampas legales que continúan plagando la IA generativa y, relacionado con esto, la medida en que “abierto” sigue siendo sujeto de interpretación. Llámame pesimista, pero el creciente número de licencias restrictivas controvertidas me sugiere que la industria de la IA no alcanzará un consenso, ni se acercará a la claridad, en el corto plazo.