Tras los emocionantes lanzamientos de Gemma 3 y Gemma 3 QAT, nuestra familia de modelos abiertos de última generación capaces de ejecutarse en una sola nube o un acelerador de escritorio, impulsamos aún más nuestra visión de una IA accesible. Gemma 3 brindó potentes capacidades para los desarrolladores, y ahora estamos extendiendo esa visión a una IA sumamente capaz y en tiempo real que opera directamente en los dispositivos que usas todos los días: tus teléfonos, tablets y computadoras portátiles.
Para impulsar la nueva generación de IA integrada en el dispositivo y admitir una amplia gama de aplicaciones, incluido el avance de las capacidades de Gemini Nano, diseñamos una arquitectura nueva y de vanguardia. Esta base de última generación se creó en estrecha colaboración con líderes de hardware para dispositivos móviles, como Qualcomm Technologies, MediaTek y Samsung System LSI, y está optimizada para una IA multimodal y ultrarrápida, que permite experiencias realmente personales y privadas directamente en tu dispositivo.
Gemma 3n es nuestro primer modelo abierto basado en esta innovadora arquitectura compartida que permite a los desarrolladores comenzar a experimentar con esta tecnología hoy mismo en una versión preliminar anticipada. La misma arquitectura avanzada también impulsa la nueva generación de Gemini Nano, que lleva estas capacidades a una amplia gama de funciones en las aplicaciones de Google y nuestro ecosistema integrado en el dispositivo, y estará disponible a finales de este año. Gemma 3n te permite comenzar a compilar sobre esta base que llegará a las principales plataformas, como Android y Chrome.
Gemma 3n utiliza una innovación de Google DeepMind llamada “incorporaciones por capas” (PLE), que ofrece una reducción significativa en el uso de RAM. Si bien el recuento de parámetros sin procesar es de 5000 millones y 8000 millones, esta innovación te permite ejecutar modelos más grandes en dispositivos móviles o transmitir en vivo desde la nube, con una sobrecarga de memoria comparable a un modelo de 2000 millones y 4000 millones, lo que significa que los modelos pueden operar con una huella de memoria dinámica de solo 2 GB y 3 GB. Obtén más información en nuestra documentación.
Al explorar Gemma 3n, los desarrolladores pueden obtener una versión preliminar anticipada de las capacidades centrales del modelo abierto y las innovaciones arquitectónicas que priorizan la experiencia móvil y que estarán disponibles en Android y Chrome con Gemini Nano.
En esta entrada, exploraremos las nuevas capacidades de Gemma 3n, nuestro enfoque de desarrollo responsable y cómo puedes acceder a la versión preliminar hoy.
Diseñado para experiencias de IA rápidas y de baja huella que se ejecutan localmente, Gemma 3n ofrece:
Gemma 3n potenciará una nueva ola de aplicaciones inteligentes sobre la marcha al permitir a los desarrolladores:
2. Potenciar una comprensión más profunda y la generación de texto contextual utilizando entradas combinadas de audio, imagen, video y texto, todo procesado de forma privada en el dispositivo.
3. Desarrollar aplicaciones avanzadas centradas en el audio, incluida la transcripción de habla en tiempo real, la traducción e interacciones interesantes basadas en la voz.
Aquí tienes una descripción general y los tipos de experiencias que puedes compilar:
Link to Youtube Video (visible only when JS is disabled)
Nuestro compromiso con el desarrollo responsable de la IA es primordial. Gemma 3n, como todos los modelos de Gemma, se sometió a rigurosas evaluaciones de seguridad, a la administración de datos y a un ajuste en virtud de nuestras políticas de seguridad. Tratamos los modelos abiertos con una cuidadosa evaluación de riesgos y mejoramos continuamente nuestras prácticas a medida que evoluciona el panorama de la IA.
Nos entusiasma poner a Gemma 3n al alcance de tu mano mediante una versión preliminar a partir de hoy:
Acceso inicial (disponible ahora):
Gemma 3n marca el próximo paso en la democratización del acceso a una IA eficiente y de vanguardia. Nos entusiasma mucho ver lo que compilarás a medida que esta tecnología esté disponible progresivamente, comenzando con la versión preliminar de hoy.
Explora este anuncio y todas las novedades de Google I/O 2025 en io.google a partir del 22 de mayo.