Google Cloud IA / Machine Learning

Gemma: novos modelos de IA open source do Google

Página do Google com zoom para o título “Gemma: novos modelos de IA open source do Google”.

Comprometido com sua missão de democratizar a Inteligência Artificial (IA) para as empresas, o Google apresenta o Gemma, um conjunto de modelos abertos de IA generativa baseados nos modelos Gemini. 

Os modelos Gemma seguem a proposta de serem leves, abertos, responsáveis e confiáveis, auxiliando desenvolvedores na criação de novos produtos de IA. Entenda a seguir como o Gemma funciona e suas diversas aplicações. 

O que é Gemma?

Gemma é a família de modelos de IA generativa open source (código aberto) do Google. Eles são pautados na tecnologia Gemini, lançada pela Big Tech em 2023. 

Se trata de um Large Language Model (“Grande Modelo de Linguagem”, na tradução). Um LLM é um modelo de aprendizado profundo significativamente grande e pré-treinado com grande volume de dados. 

Agora, desenvolvedores e pesquisadores de IA podem executar os modelos Gemma tanto em apps quanto em hardwares (como dispositivos móveis ou serviços hospedados). Isso significa que com este modelo de linguagem ficou muito mais fácil incorporar a IA Google nas organizações! 

Os programadores também podem personalizar os modelos por meio de técnicas de ajuste para executar atividades importantes e melhorar o desempenho. Dessa forma, o Google disponibiliza à comunidade de desenvolvedores diversas ferramentas para impulsionar a inovação, aumentar a colaboração e garantir o uso seguro e responsável dos modelos Gemma. 

O recurso será disponibilizado através do repositório KerasNLP, possibilitando às empresas e profissionais independentes seu uso em soluções de IA personalizadas para atender a exigências específicas. 

Família Gemma: Gemma 2B e Gemma 7B

Os modelos Gemma estão disponíveis em dois tamanhos diferentes para os desenvolvedores criarem soluções de IA generativa com apoio dos recursos de computação disponíveis. São eles: 2B e 7B. 

Ambos tamanhos estão disponíveis em uma versão ajustada e uma não ajustada:

  • Pré-treinado: a versão não foi treinada em tarefas ou instruções específicas além do conjunto de treinamento de dados principais do Gemma. O uso do modelo não é recomendado sem a realização de ajustes. 
  • Ajuste por instruções: versão treinada com interações de linguagem humana para participar de uma conversa, similarmente a um chatbot. 

Conforme apresenta o Google, o recurso supera alguns modelos abertos disponíveis no mercado. Como exemplo, a variante 7GB do Gemma mostrou-se superior até mesmo em relação à versão 13 GB do modelo LLAMA-2 da Meta. Os testes de MMLU, que mensuram o conhecimento e capacidade de solução de problemas na fase de pré-treinamento, indicaram um aproveitamento de 64,3% contra 54,8%, respectivamente. 

Foco em privacidade e segurança 

O Gemma foi desenvolvido conforme os princípios de IA do Google. Possui uma tecnologia que utiliza técnicas automatizadas para remover informações pessoais e dados confidenciais dos conjuntos de dados usados para treinamento. Isso garante a segurança e privacidade dos modelos para criação de novos produtos. 

Os modelos também são reforçados por feedback humano (RLHF) para garantir que sejam usados de forma responsável e evitar desvios de comportamento. Para reduzir os riscos de uso, o Google realizou avaliações como red-teaming manual, testes adversários automatizados e avaliações das capacidades do modelo para atividades perigosas.

Onde usar os modelos de IA generativa open source?

Veja como você pode começar a usar os modelos nas soluções do ecossistema Google Cloud:

Vertex AI:

Você pode usar o Vertex AI como o aplicativo downstream que exibe o modelo Gemma. Como exemplo, é possível transferir pesos da implementação do Keras do Gemma. Assim, o Vertex AI pode ser utilizado para disponibilizar essa versão do Gemma e receber previsões. O Google recomenda o uso da Vertex AI caso o desenvolvedor queira recursos de MLOps completos, recursos de ML com valor agregado e uma experiência sem servidor para um desenvolvimento simplificado.

Google Kubernetes Engine (GKE):

Recomendado para quem já possui investimentos no Kubernetes, se a organização tiver experiência interna em MLOps ou se precisar de controle granular sobre cargas de trabalho complexas de IA/ML com segurança, pipeline de dados e recursos exclusivos de gerenciamento de projetos.

Dataflow:

Desenvolvedores podem usar modelos com o Dataflow para análise de sentimento. Use o Dataflow para executar pipelines de inferência que utilizem os modelos Gemma.

Colab: 

É possível usar os modelos com o Colaboratory para criar sua solução Gemma. Utilize o Gemma com opções de framework, como PyTorch e JAX.

Como usar os modelos Gemma?

A família de modelos de IA pré-treinados abre um universo de possibilidades para a comunidade de programadores, propiciando mais colaboração, inovação e uso responsável.

A Geoambiente, revendedora oficial do Google Cloud, possui especialistas certificados nas soluções de IA do Google que podem ajudar seu time de desenvolvimento a abraçar essas novas tecnologias. 

Saia na frente e impulsione o uso da IA na sua organização com o apoio da Geoambiente. Vamos juntos?!

 

Fale com os nossos especialistas

Sobre o(a) autor(a)

Victor Hugo Ferreira

Customer Engineer
Formado em Engenharia Elétrica com ênfase em computação, é 5 vezes certificado como especialista em Google Cloud. Conta com amplo conhecimento sobre a plataforma e seus recursos para o desenvolvimento de soluções. Entre suas certificações, estão os títulos de Professional Cloud Architect e Professional Machine Learning Engineer.

Deixe um Comentário