Invoke - Local LLM Client

Invoke - Local LLM Client

Descargar en App Store
Logo de Invoke - Local LLM Client

Invoke - Cliente LLM Local: Chat IA Privado Impulsado por tu Propio Hardware

La interfaz móvil perfecta para Ollama y LM Studio. Interacciones IA seguras, completamente offline y centradas en la privacidad dentro de tu red local.

Editor

kazuhiko sugimoto

Categoría

Developer Tools

Descargas

2K+

Valoración

3.2/5

Total valoraciones

0

Idiomas

2

La Interfaz Privada

Descubre la interfaz utilizada por 2K+ usuarios.

Pantallas de configuración para LM Studio y Ollama mostrando cómo habilitar el acceso a la red para conexiones LLM locales.

Pantallas de configuración para LM Studio y Ollama mostrando cómo habilitar el acceso a la red para conexiones LLM locales.

Pantalla de configuración del servidor en la aplicación Invoke mostrando la configuración de Ollama y la selección del modelo de lenguaje.

Pantalla de configuración del servidor en la aplicación Invoke mostrando la configuración de Ollama y la selección del modelo de lenguaje.

Una conversación de chat entre un usuario y el modelo local gemma3-1b dentro de la interfaz de la aplicación Invoke

Una conversación de chat entre un usuario y el modelo local gemma3-1b dentro de la interfaz de la aplicación Invoke

Domina tu Ecosistema IA Privado

Las herramientas que hacen destacar esta app, elegida por 2K+ usuarios.

🔒

Soberanía Absoluta de Datos

Mantén tus conversaciones completamente dentro de tu red local. Sin APIs externas, sin rastreo en la nube y cero fugas de datos a terceros.

Sincronización Fluida del Servidor

Conéctate instantáneamente a Ollama o LM Studio. Cambia entre modelos como Llama 3 o Mistral sobre la marcha con streaming de mensajes en tiempo real.

📱

La Experiencia Relajada

Libérate de tu estación de trabajo. Accede al hardware de tu laboratorio casero desde el sofá con una interfaz de chat fluida y optimizada para el modo oscuro.

Sobre la app

Todo lo que necesitas saber sobre Invoke - Local LLM Client.

Descripción

Note: This app is intended for users who are able to set up a local LLM server (Ollama or LM Studio) within their own LAN environment. Some technical setup is required. Chat with your local LLM! Seamlessly connect to Ollama or LM Studio for a fully offline, privacy-focused AI chat experience! This iOS app connects to a locally hosted Large Language Model (LLM) server and enables seamless, natural conversations. Compatible with Ollama and LM Studio via HTTP, it provides real-time message streaming and intuitive chat history management. The app operates entirely within a local network—no internet connection required—making it ideal for those who prioritize privacy and security. Key Features: - Easy connection to local LLM servers (Ollama / LM Studio) - Natural chat UI with bubble-style layout - Auto-saving and browsing chat history - Server and model selection via settings screen - Supports Dark Mode

Última versión

1.1.1

Tamaño

2.7 MB

Fecha de lanzamiento

3 ago 2025

Controla tus Modelos Locales Desde Cualquier Lugar

Cierra la brecha entre tu estación de trabajo y tu dispositivo móvil. Experimenta una interfaz de chat pulida y en modo oscuro para tu configuración de Ollama o LM Studio, sin que los datos salgan nunca de tu LAN.

Descargar en App Store

App information, icons, screenshots, and descriptions displayed on this page are sourced from the Apple App Store and are the property of their respective developers. Download estimates and rankings are based on MWM's proprietary models and may not reflect actual figures. This page is provided for informational and analytical purposes only.

Believe this page infringes your intellectual property? File a dispute