Google libera Gemini Nano 4 para testes e mira celulares Android topo de linha

O modelo foi liberado em fase de testes para desenvolvedores e aparece em duas variantes: Gemini Nano 4 Fast, baseada no Gemma 4 E2B e voltada a respostas rápidas, e Gemini Nano 4 Full, baseada no Gemma 4 E4B e focada em maior qualidade.
Google aposta em IA local no Android e apresenta Gemini Nano 4 em duas versões
Google aposta em IA local no Android e apresenta Gemini Nano 4 em duas versões

Resumo da Notícia

Continua após o anúncio

O Google anunciou, no fim da última semana, o Gemini Nano 4, novo modelo de inteligência artificial criado para processamento local no Android, com execução direta no aparelho, sem depender de servidores.

A tecnologia já foi liberada para testes de desenvolvedores e deve ser integrada ao AICore em celulares Android topo de linha ainda neste ano. O movimento reforça a aposta da empresa em IA embarcada no dispositivo, com foco em eficiência, rapidez e menor dependência de processamento externo.

O principal ponto do Gemini Nano 4 é claro: ele foi projetado para executar tarefas de inteligência artificial diretamente no celular. Isso significa que o processamento acontece no próprio aparelho, sem necessidade de enviar tudo para servidores remotos.

Continua após o anúncio

No campo técnico, essa abordagem coloca o modelo em uma linha voltada à eficiência. O objetivo é entregar recursos de IA com melhor adaptação ao uso móvel, especialmente em dispositivos premium. O Google já havia mencionado modelos semelhantes como “nano-v2” e “nano-v3”, associados ao Pixel 10 e ao Galaxy S26. Agora, com o Gemini Nano 4, a empresa formaliza um novo passo nessa família de modelos compactos voltados ao uso local.

Leia tambémMod cria “Novo Jogo+” para Red Dead Redemption 2 e dá novo fôlego ao clássico da Rockstar

Quais versões do Gemini Nano 4 foram apresentadas

O novo modelo chega em duas versões:

  • A primeira é o Gemini Nano 4 Fast [Preview, TPU], descrita como a opção mais eficiente. Ela é baseada no Gemma 4 E2B e foi otimizada para respostas rápidas.
  • A segunda é o Gemini Nano 4 Full [Preview, TPU], apresentada como a versão mais poderosa. Nesse caso, a base é o Gemma 4 E4B, com foco em maior qualidade de resposta.

A distinção entre as duas deixa clara a estratégia do Google: oferecer uma variante mais enxuta para velocidade e outra mais robusta para resultados de maior qualidade. Ambas devem chegar a smartphones Android topo de linha ainda neste ano. Por enquanto, os dois modelos estão disponíveis para testes no AICore Developer Preview.

Continua após o anúncio

Qual é a base tecnológica do Gemini Nano 4

Google lança Gemini Nano 4 para rodar IA diretamente no celular Android
Google lança Gemini Nano 4 para rodar IA diretamente no celular Android

Por trás do Gemini Nano 4 está o Gemma 4, novo modelo de código aberto do Google. Esse ponto é relevante porque mostra que a nova geração embarcada para celulares nasce apoiada em uma base que a empresa também distribui com abertura para uso mais amplo.

O Gemma 4 é distribuído sob a licença Apache 2.0, que permite uso, modificação e distribuição, inclusive em projetos comerciais. Esse detalhe amplia o alcance da tecnologia além do ecossistema imediato do Google, já que a licença favorece adoção, adaptação e desenvolvimento em diferentes frentes.

Quais variantes do Gemma 4 foram citadas

O Google informou que o Gemma 4 está disponível em diferentes variantes: 31B Dense, 26B Mixture of Experts (MoE), Effective 4B (E4B) e Effective 2B (E2B).

Leia tambémNovo RPG gratuito na Steam mistura mundo aberto, guerra entre territórios e disputas massivas

No contexto do Gemini Nano 4, as versões que aparecem diretamente como base são justamente as variantes E2B e E4B. A primeira sustenta a versão Fast, enquanto a segunda dá base à versão Full. Essa arquitetura ajuda a explicar por que o Google separa claramente desempenho rápido e maior qualidade de resposta como prioridades diferentes dentro do mesmo lançamento.

Segundo o Google, o Gemma 4 consegue lidar com conversas em linguagem natural em até 140 idiomas. Além disso, o modelo oferece suporte a fluxos de agentes de IA e a compreensão multimodal.

Na prática, isso inclui processamento de imagens, vídeos com áudio e OCR, tecnologia usada para reconhecimento óptico de caracteres. Esse conjunto mostra que a proposta não está restrita a texto. O Google descreve uma base capaz de operar em diferentes formatos de entrada e interpretação, o que amplia o tipo de tarefa que pode ser executada no ambiente de IA móvel.

Deixe um comentário

Seu e‑mail não será publicado.

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.