Tecnología

Ollama 0.22.1 hace que Gemma 4 llame a herramientas en tu portátil sin clave de API

Susan Hill

Ollama 0.22.1 trae un renderizador actualizado para Gemma 4 que por fin soporta las dos capacidades que importaban para el trabajo serio de IA local: el modo de pensamiento explícito y la llamada a funciones o tool calling. El tool calling deja que el modelo decida cuándo invocar una función externa — abrir una página web, consultar una base de datos, ejecutar un cálculo — y luego integra el resultado en su propio razonamiento. El modo de pensamiento expone los pasos intermedios del modelo para que una aplicación pueda capturarlos y actuar sobre ellos. Las dos cosas han sido características que las grandes APIs en la nube cobraban. Las dos ahora se ejecutan en local contra Gemma 4 sin servicio externo de por medio.

Lo que hace que esto cale más que un lanzamiento cualquiera de modelo es la cuenta del hardware. La familia Gemma 4 que Google publicó con licencia Apache-2.0 incluye cuatro tamaños: E2B, E4B, 26B A4B y 31B. Las variantes pequeñas funcionan en un portátil reciente con gráficos integrados y entre doce y dieciséis gigas de RAM. Las versiones 26B A4B y 31B piden una GPU de sobremesa, pero se quedan claramente dentro del terreno de consumo. La misma arquitectura que antes obligaba a contratar una API de pago o a montar un servidor doméstico de cuatro cifras se ha vuelto una instalación de tarde de sábado para cualquiera con una máquina razonablemente moderna.

La consecuencia práctica para quien no programa es que toda una clase de aplicaciones de tipo agente — las que leen tu correo, redactan respuestas, descargan documentos, rellenan formularios, resumen reuniones — deja de tener que enviar esos datos a un servidor de terceros. Un usuario preocupado por la privacidad tenía hasta ahora dos opciones: confiar en la política de datos de un proveedor en la nube, o ejecutar un modelo bastante más débil en local sin tool calling. El término medio era un agujero, y Ollama 0.22.1 lo cierra para el peso de Gemma 4.

La lectura escéptica es que Ollama y Gemma 4 no son equivalentes de la frontera en la nube. Un modelo 31B alojado en local no llega al nivel de Claude de Anthropic o GPT-5 de OpenAI en razonamiento complejo. La precisión de las llamadas a herramientas en cadenas largas es claramente peor en las variantes pequeñas. Las entradas multimodales funcionan, pero más lentas. Y la carga de integración recae en el usuario: nadie ha construido todavía una aplicación de agente Gemma 4 más Ollama lo bastante pulida como para competir con un flujo SaaS terminado. El techo del hardware y el acabado del software siguen siendo agujeros reales.

La versión está disponible ya mediante el instalador estándar de Ollama para macOS, Linux y Windows. Los pesos de Gemma 4 están alojados en la biblioteca de modelos de Ollama bajo el espacio de nombres gemma4, y el cambio de tiempo de ejecución de 0.22.1 se aplica automáticamente a cualquier tamaño una vez descargado.

Debate

Hay 0 comentarios.