Invoke - Local LLM Client

Invoke - Local LLM Client

Scarica su App Store
Logo di Invoke - Local LLM Client

Invoke - Client LLM Locale: Chat AI Privata Alimentata dal Tuo Hardware

L'interfaccia mobile senza interruzioni per Ollama e LM Studio. Interazioni AI sicure, completamente offline e focalizzate sulla privacy all'interno della tua rete locale.

Editore

kazuhiko sugimoto

Categoria

Developer Tools

Download

2K+

Valutazione

3.2/5

Valutazioni totali

0

Lingue

2

L'Interfaccia Privata

Scopri l'interfaccia usata da 2K+ utenti.

Schermate di configurazione per LM Studio e Ollama che mostrano come abilitare l'accesso alla rete per le connessioni LLM locali.

Schermate di configurazione per LM Studio e Ollama che mostrano come abilitare l'accesso alla rete per le connessioni LLM locali.

Schermata delle impostazioni del server nell'app Invoke che mostra la configurazione di Ollama e la selezione del modello linguistico

Schermata delle impostazioni del server nell'app Invoke che mostra la configurazione di Ollama e la selezione del modello linguistico

Una conversazione di chat tra un utente e il modello locale gemma3-1b all'interno dell'interfaccia dell'app Invoke

Una conversazione di chat tra un utente e il modello locale gemma3-1b all'interno dell'interfaccia dell'app Invoke

Padroneggia il Tuo Ecosistema AI Privato

Gli strumenti che rendono questa app unica, scelti da 2K+ utenti.

🔒

Assoluta Sovranità dei Dati

Mantieni le tue conversazioni interamente all'interno della tua rete locale. Nessuna API esterna, nessun tracciamento cloud e zero fughe di dati verso terze parti.

âš¡

Sincronizzazione Server Senza Interruzioni

Connettiti istantaneamente a Ollama o LM Studio. Passa da modelli come Llama 3 o Mistral al volo con streaming di messaggi in tempo reale.

📱

L'Esperienza Rilassata

Liberati dalla tua workstation. Accedi all'hardware del tuo home lab dal tuo divano con un'interfaccia di chat fluida e ottimizzata per la modalità oscura.

Info sull'app

Tutto quello che devi sapere su Invoke - Local LLM Client.

Descrizione

Note: This app is intended for users who are able to set up a local LLM server (Ollama or LM Studio) within their own LAN environment. Some technical setup is required. Chat with your local LLM! Seamlessly connect to Ollama or LM Studio for a fully offline, privacy-focused AI chat experience! This iOS app connects to a locally hosted Large Language Model (LLM) server and enables seamless, natural conversations. Compatible with Ollama and LM Studio via HTTP, it provides real-time message streaming and intuitive chat history management. The app operates entirely within a local network—no internet connection required—making it ideal for those who prioritize privacy and security. Key Features: - Easy connection to local LLM servers (Ollama / LM Studio) - Natural chat UI with bubble-style layout - Auto-saving and browsing chat history - Server and model selection via settings screen - Supports Dark Mode

Ultima versione

1.1.1

Dimensione

2.7 MB

Data di lancio

3 ago 2025

Comanda i Tuoi Modelli Locali da Ovunque

Colma il divario tra la tua workstation e il tuo dispositivo mobile. Sperimenta un'interfaccia di chat curata, in modalità oscura, per la tua configurazione Ollama o LM Studio, senza che alcun dato lasci mai la tua LAN.

Scarica su App Store

App information, icons, screenshots, and descriptions displayed on this page are sourced from the Apple App Store and are the property of their respective developers. Download estimates and rankings are based on MWM's proprietary models and may not reflect actual figures. This page is provided for informational and analytical purposes only.

Believe this page infringes your intellectual property? File a dispute