O SignGemma é um modelo desenvolvido pelo Google DeepMind para facilitar a compreensão da linguagem de sinais, começando com a linguagem norte-americana de sinais.
Por Redação, com Europa Press – de São Francisco
O Google revelou um novo modelo de código aberto da família Gemma desenvolvido para traduzir a linguagem de sinais em texto diretamente no dispositivo.

O SignGemma é um modelo desenvolvido pelo Google DeepMind para facilitar a compreensão da linguagem de sinais, começando com a linguagem norte-americana de sinais (ASL) e o inglês.
Para isso, o Google explica que o treinou com mais de 10.000 horas de vídeos anotados em ASL, juntamente com transcrições em inglês, e garante que também haverá suporte para outras línguas de sinais no futuro.
Ele faz parte da família Gemma de modelos de código aberto e é baseado na estrutura Gemini Nano, que é otimizada para executar IA multimodal no dispositivo, permitindo que ele também funcione off-line.
Ele também usa um transformador de visão para detectar e processar os movimentos das mãos e dos lábios, com o objetivo de realizar uma tradução diretamente no dispositivo da linguagem de sinais para o texto, sintetizando a fala “com o mínimo de atraso”, para que possa ser acompanhada em tempo real.
SignGemma
O SignGemma foi demonstrado durante o Google I/O 2025 e está atualmente em teste, em uma fase de visualização que o Google está direcionando para desenvolvedores e pesquisadores e para a comunidade global de surdos e deficientes auditivos.
Recentemente, o Google apresentou o DolphinGemma, uma versão de seus modelos leves e abertos desenvolvidos especificamente para analisar os sons emitidos pelos golfinhos e identificar padrões e estruturas que abrem caminho para a compreensão entre espécies.