Invoke - Local LLM Client

Invoke - Local LLM Client

Herunterladen auf App Store
Logo von Invoke - Local LLM Client

Invoke - Lokaler LLM-Client: Private KI-Chats angetrieben durch Ihre eigene Hardware

Die nahtlose mobile Schnittstelle für Ollama und LM Studio. Sichere, vollständig offline und datenschutzorientierte KI-Interaktionen innerhalb Ihres lokalen Netzwerks.

Herausgeber

kazuhiko sugimoto

Kategorie

Developer Tools

Downloads

2K+

Bewertung

3.2/5

Bewertungen gesamt

0

Sprachen

2

Die private Benutzeroberfläche

Entdecken Sie die Oberfläche, die von 2K+ Nutzern verwendet wird.

Konfigurationsbildschirme für LM Studio und Ollama, die zeigen, wie der Netzwerkzugriff für lokale LLM-Verbindungen aktiviert wird.

Konfigurationsbildschirme für LM Studio und Ollama, die zeigen, wie der Netzwerkzugriff für lokale LLM-Verbindungen aktiviert wird.

Bildschirm für Server-Einstellungen in der Invoke-App, der die Ollama-Konfiguration und die Auswahl von Sprachmodellen anzeigt.

Bildschirm für Server-Einstellungen in der Invoke-App, der die Ollama-Konfiguration und die Auswahl von Sprachmodellen anzeigt.

Eine Chat-Konversation zwischen einem Benutzer und dem lokalen Modell gemma3-1b innerhalb der Invoke-App-Oberfläche

Eine Chat-Konversation zwischen einem Benutzer und dem lokalen Modell gemma3-1b innerhalb der Invoke-App-Oberfläche

Meistern Sie Ihr privates KI-Ökosystem

Die Tools, die diese App auszeichnen, gewählt von 2K+ Nutzern.

🔒

Absolute Datenhoheit

Behalten Sie Ihre Konversationen vollständig in Ihrem lokalen Netzwerk. Keine externen APIs, keine Cloud-Überwachung und keine Datenlecks an Dritte.

Nahtlose Serversynchronisierung

Sofortige Verbindung zu Ollama oder LM Studio. Wechseln Sie im Handumdrehen zwischen Modellen wie Llama 3 oder Mistral mit Echtzeit-Nachrichtenstreaming.

📱

Das Lean-Back-Erlebnis

Lösen Sie sich von Ihrer Workstation. Greifen Sie von Ihrer Couch aus mit einer flüssigen, für den Dark-Mode optimierten Chat-Oberfläche auf Ihre Heimlabor-Hardware zu.

Über die App

Alles, was Sie über wissen müssen Invoke - Local LLM Client.

Beschreibung

Note: This app is intended for users who are able to set up a local LLM server (Ollama or LM Studio) within their own LAN environment. Some technical setup is required. Chat with your local LLM! Seamlessly connect to Ollama or LM Studio for a fully offline, privacy-focused AI chat experience! This iOS app connects to a locally hosted Large Language Model (LLM) server and enables seamless, natural conversations. Compatible with Ollama and LM Studio via HTTP, it provides real-time message streaming and intuitive chat history management. The app operates entirely within a local network—no internet connection required—making it ideal for those who prioritize privacy and security. Key Features: - Easy connection to local LLM servers (Ollama / LM Studio) - Natural chat UI with bubble-style layout - Auto-saving and browsing chat history - Server and model selection via settings screen - Supports Dark Mode

Neueste Version

1.1.1

Größe

2.7 MB

Erstveröffentlichung

3. Aug. 2025

Steuern Sie Ihre lokalen Modelle von überall

Schließen Sie die Lücke zwischen Ihrer Workstation und Ihrem mobilen Gerät. Erleben Sie eine polierte Chat-Benutzeroberfläche im Dark-Mode für Ihre Ollama- oder LM-Studio-Einrichtung – keine Daten verlassen jemals Ihr LAN.

Herunterladen auf App Store

App information, icons, screenshots, and descriptions displayed on this page are sourced from the Apple App Store and are the property of their respective developers. Download estimates and rankings are based on MWM's proprietary models and may not reflect actual figures. This page is provided for informational and analytical purposes only.

Believe this page infringes your intellectual property? File a dispute