Gemma: todo lo que necesitas saber sobre el nuevo modelo de IA de Google

4/5 - (1 vote)

La lista generativa de IA acaba de dar la bienvenida a un nuevo miembro. De OpenAI a Midjourney, ahora le toca a Google entrar en juego con el lanzamiento de Gemma, su nueva inteligencia artificial que se hizo oficial el 21 de febrero de 2024.

Por tanto, el proyecto Gemma de Google forma parte del trabajo realizado por DeepMind y varios equipos de Google sobre modelos de lenguaje conversacional. Su nombre está inspirado en la palabra latina Gemini que significa piedra preciosa. Al ser un modelo de código abierto, Gemma destaca por su total transparencia. Toda su arquitectura, su metodología de entrenamiento, sus pesos y sus parámetros también se hacen públicos bajo licencias de libre acceso. De este modo, los investigadores y desarrolladores pueden explorar, comprender, reutilizar e incluso adaptar libremente Gemma, que se ofrece en dos arquitecturas (hablaremos de ello más adelante), para satisfacer sus necesidades específicas.

Compacto, de libre acceso, adaptable a cada tarea, verdaderamente una joya rara como su nombre indica

De diseño compacto, Gemma está disponible en dos versiones. Si el modelo 2B tiene 2 mil millones de parámetros, el 7B tiene 7. Si los comparamos con los otros modelos, son mucho más pequeños, pero tienen un alto rendimiento. En otras palabras, Los modelos 2B y 7B requieren menos potencia informática. Pero son mucho más rápidos que otros modelos de IA.

Otra gran ventaja de Gemma en comparación con otros modelos es que es accesible de forma gratuita. Los desarrolladores podrán así modifica y mejora tu código fuente. En cuanto a su uso, este nuevo modelo de IA de Google se adapta perfectamente a cualquier tarea. Incluyendo la generación de respuestas a cada pregunta formulada, el resumen de un texto, o la creación de un resumen de contenidos y campañas de marketing por correo electrónico.

Gemma: dos modelos muy diferenciados dedicados a particulares y empresas

Cada configuración, incluidos los modelos Gemma 2B y 7B, ofrece fundamentos de IA versátiles. Ellos adecuado tanto para necesidades personales como para soluciones comerciales.

El modelo Gemma de Google se beneficia de la misma técnica detrás de Gemini, su sistema de inteligencia artificial conversacional más avanzado. Aprovechando esta base tecnológica de última generación, las versiones 2B y 7B de Gemma cuentan mostró un desempeño inigualable en comparación con otros modelos de código abierto. También se elogió su capacidad de liderazgo en sus respectivas categorías.

A pesar de sus dimensiones más pequeñas que algunos modelos, Gemma destacó en criterios clave. respetando estándares estrictos en términos de confiabilidad y seguridad generaciones de texto.

Según datos publicados por Google, la versión 7B de Gemma supera con creces al modelo Llama 2 7B de Meta en varios puntos: razonamiento, matemáticas y escritura de código. Por ejemplo, obtiene puntuaciones bastante altas en los puntos de referencia BBH, GSM8K y MATH 4-shot. No hace falta decir que Gemma 7B también es mucho más eficiente a la hora de generar código Python.

Un conjunto de herramientas para una mejor adaptabilidad, ¡gracias Gemma!

Según información proporcionada por Google, Gemma se destaca de la competencia por su gran flexibilidad y ecosistema abierto. En primer lugar, le permite refinar fácilmente sus modelos según datos específicos. Lo que permite una mejor personalización para satisfacer las necesidades únicas de cada caso de uso. En particular, como se mencionó anteriormente, generación aumentada o síntesis de texto.

Gemma también admite una amplia gama de herramientas y marcos populares como Keras, JAX, Transformers o PyTorch nativo. Esta capacidad ofrece la posibilidad de facilitar su integración en diferentes entornos. ¡Pero Google no se limitó a estos elementos! Entonces decidieron lanzar una versión compatible con todo tipo de dispositivos. Incluyendo dispositivos móviles, PC, IoT e incluso la nube.

Hablando de la nube, Gemma también se beneficia de integración privilegiada con servicios en la nube y herramientas MLOps de Google como Vertex AI. Esto facilita las fases de personalización, optimización, implementación y gestión de modelos en diferentes infraestructuras CPU/GPU/TPU.

¿Con qué tipos de datos se entrenó a Gemma?

Los modelos Gemma 7B y 2B son, según Google, una versión mejorada de Gemini. Fueron capacitados en enormes cantidades de datos centrados en contenido web, matemáticas y programación informática. Pero a diferencia de Géminis, Gemma no está diseñado para multilingüe o multimodal. Más bien, se centra en un tratamiento en profundidad del texto en inglés.

Sin embargo, su metodología de formación, que incluye aprendizaje supervisado y aprendizaje reforzado basado en retroalimentación, tiene como objetivo optimizar la comprensión y la generación matizada de textos en inglés. Gemma también se beneficia de innovaciones como un vocabulario ampliado y nuevo enfoque para la tokenización mejorar el procesamiento de diferentes tipos de datos.

Este especialización en procesamiento del lenguaje natural inglésparticularmente en campos técnicos como la informática y las matemáticas, destaca el potencial de Gemma para aplicaciones de nicho muy avanzadas.

En un esfuerzo por promover la accesibilidad y la innovación, Google pone su modelo Gemma a disposición de toda la comunidad de forma gratuita. Como investigadores y desarrolladores, ahora pueden acceda libremente a estos modelos de lenguaje conversacional en plataformas como Kaggle y Google Colab.

Además, se ofrecen créditos exclusivos en la nube a los nuevos usuarios de Google Cloud para permitirles experimentar Gemma. Los equipos académicos incluso tienen la oportunidad de Solicite hasta $500,000 en créditos. dedicados a acelerar el desarrollo de sus proyectos de investigación en torno a esta tecnología.

Requisitos e inicialización de Gemma localmente

Para obtener el mejor rendimiento de Gemma 2B, necesitará ciertas especificaciones de hardware. En primer lugar, se recomienda un procesador Intel i5 multinúcleo o superior. También se requieren 16 GB de RAM para la arquitectura 2B, en comparación con los 32 GB del Gemma 7B. También necesitarás tener al menos 50 GB de espacio libre en un SSD.

Si estás usando macOS, asegúrate de que esté actualizado porque Gemma requiere Monterey o posterior. De lo contrario, la configuración de Ollama también le permitirá inicializar e interactuar localmente con los modelos Gemma.

Para inicializar una instancia local de Gemma, siga estos pasos. Primero, inicie la plantilla Gemma deseada a través de Ollama CLI. Para el modelo Gemma 2B (más pequeño), ejecute “ ollama corre gemma:2b “. Para Gemma 7B (más grande), ejecute “ollama run gemma:7b”.

En segundo lugar, en la primera ejecución, se descargarán los recursos de la plantilla seleccionada, que pueden tomar un tiempo. Una vez que se complete la descarga, Gemma se inicializará y estará lista para usar.

Gemma en las empresas, los diferentes casos de uso

Para las empresas, Gemma es la respuesta que podría brindarles soluciones de código abierto para sus necesidades específicas. Desde la creación de un chatbot hasta el desarrollo de aplicaciones multimodales, pasando por el procesamiento de PNL y el análisis de datos, Gemma ofrece multitud de respuestas.

Por ejemplo, la versión compacta y optimizada Gemma 2B está ideal para desarrollar chatbots y asistentes virtuales. Es decir, soluciones de IA desplegables en dispositivos móviles o sistemas integrados. Para las empresas, esto ayuda a mejorar el servicio al cliente, el soporte y la participación de los usuarios sin tener que implementar grandes recursos de TI.

En cuanto al modelo 7B de Gemma, es más grande, pero tiene capacidad ampliada para tareas más complejas. Él ideal para un análisis en profundidad grandes conjuntos de datos y documentos. Hablamos entonces de una potente y eficaz herramienta de extracción de información. Pero también en los procedimientos para discernir tendencias y tomar decisiones estratégicas.

En resumen, Gemma es una victoria para Google. Pero a medida que la inteligencia artificial evolucione, seguramente habrá otros modelos más potentes y más eficiente. OpenAI, por ejemplo, lanzó recientemente Sora, su generador de IA de texto a video. También está el reciente lanzamiento de la versión 1.0 de Ideogram que, según sus desarrolladores, es más potente que Midjourney y DALL-E.

    Comparte el artículo: