Invoke - Local LLM Client

Invoke - Local LLM Client

Télécharger sur App Store
Logo de Invoke - Local LLM Client

Invoke - Client LLM Local : Chat IA Privé Alimenté par Votre Propre Matériel

L'interface mobile transparente pour Ollama et LM Studio. Interactions IA sécurisées, entièrement hors ligne et axées sur la confidentialité au sein de votre réseau local.

Éditeur

kazuhiko sugimoto

Catégorie

Developer Tools

Téléchargements

2K+

Note

3.2/5

Nombre d'avis

0

Langues

2

L'Interface Privée

Découvrez l'interface utilisée par 2K+ utilisateurs.

Écrans de configuration pour LM Studio et Ollama montrant comment activer l'accès réseau pour les connexions LLM locales.

Écrans de configuration pour LM Studio et Ollama montrant comment activer l'accès réseau pour les connexions LLM locales.

Écran des paramètres du serveur dans l'application Invoke montrant la configuration Ollama et la sélection du modèle linguistique

Écran des paramètres du serveur dans l'application Invoke montrant la configuration Ollama et la sélection du modèle linguistique

Une conversation de chat entre un utilisateur et le modèle local gemma3-1b dans l'interface de l'application Invoke

Une conversation de chat entre un utilisateur et le modèle local gemma3-1b dans l'interface de l'application Invoke

Maîtrisez Votre Écosystème IA Privé

Les outils qui font la différence, choisis par 2K+ utilisateurs.

🔒

Souveraineté Absolue des Données

Gardez vos conversations entièrement au sein de votre réseau local. Pas d'API externes, pas de suivi cloud et zéro fuite de données vers des tiers.

Synchronisation Transparente du Serveur

Connectez-vous instantanément à Ollama ou LM Studio. Basculez entre les modèles comme Llama 3 ou Mistral à la volée avec un streaming de messages en temps réel.

📱

L'Expérience "Lean-Back"

Détachez-vous de votre poste de travail. Accédez au matériel de votre home lab depuis votre canapé avec une interface de chat fluide optimisée pour le mode sombre.

À propos de l'app

Tout ce que vous devez savoir sur Invoke - Local LLM Client.

Description

Note: This app is intended for users who are able to set up a local LLM server (Ollama or LM Studio) within their own LAN environment. Some technical setup is required. Chat with your local LLM! Seamlessly connect to Ollama or LM Studio for a fully offline, privacy-focused AI chat experience! This iOS app connects to a locally hosted Large Language Model (LLM) server and enables seamless, natural conversations. Compatible with Ollama and LM Studio via HTTP, it provides real-time message streaming and intuitive chat history management. The app operates entirely within a local network—no internet connection required—making it ideal for those who prioritize privacy and security. Key Features: - Easy connection to local LLM servers (Ollama / LM Studio) - Natural chat UI with bubble-style layout - Auto-saving and browsing chat history - Server and model selection via settings screen - Supports Dark Mode

Dernière version

1.1.1

Taille

2.7 MB

Date de sortie

3 août 2025

Commandez Vos Modèles Locaux de N'importe Où

Comblez le fossé entre votre poste de travail et votre appareil mobile. Découvrez une interface de chat soignée en mode sombre pour votre configuration Ollama ou LM Studio - aucune donnée ne quitte jamais votre LAN.

Télécharger sur App Store

App information, icons, screenshots, and descriptions displayed on this page are sourced from the Apple App Store and are the property of their respective developers. Download estimates and rankings are based on MWM's proprietary models and may not reflect actual figures. This page is provided for informational and analytical purposes only.

Believe this page infringes your intellectual property? File a dispute