Invoke - Local LLM Client

Invoke - Local LLM Client

Baixar no App Store
Logo de Invoke - Local LLM Client

Invoke - Cliente LLM Local: Chat de IA Privado Alimentado por Seu Próprio Hardware

A interface móvel perfeita para Ollama e LM Studio. Interações de IA seguras, totalmente offline e focadas em privacidade dentro de sua rede local.

Editor

kazuhiko sugimoto

Categoria

Developer Tools

Downloads

2K+

Avaliação

3.2/5

Total de avaliações

0

Idiomas

2

A Interface Privada

Descubra a interface usada por 2K+ usuários.

Telas de configuração para LM Studio e Ollama mostrando como habilitar o acesso à rede para conexões LLM locais.

Telas de configuração para LM Studio e Ollama mostrando como habilitar o acesso à rede para conexões LLM locais.

Tela de configurações do servidor no aplicativo Invoke mostrando a configuração do Ollama e a seleção do modelo de linguagem.

Tela de configurações do servidor no aplicativo Invoke mostrando a configuração do Ollama e a seleção do modelo de linguagem.

Uma conversa de chat entre um usuário e o modelo local gemma3-1b dentro da interface do aplicativo Invoke

Uma conversa de chat entre um usuário e o modelo local gemma3-1b dentro da interface do aplicativo Invoke

Domine Seu Ecossistema de IA Privado

As ferramentas que destacam este app, escolhido por 2K+ usuários.

🔒

Soberania Absoluta dos Dados

Mantenha suas conversas inteiramente dentro de sua rede local. Sem APIs externas, sem rastreamento na nuvem e zero vazamento de dados para terceiros.

Sincronização Perfeita do Servidor

Conecte-se instantaneamente ao Ollama ou LM Studio. Alterne entre modelos como Llama 3 ou Mistral em tempo real com streaming de mensagens.

📱

A Experiência Relaxada

Libere-se da sua estação de trabalho. Acesse o hardware do seu laboratório doméstico do seu sofá com uma interface de chat fluida e otimizada para modo escuro.

Sobre o app

Tudo o que você precisa saber sobre Invoke - Local LLM Client.

Descrição

Note: This app is intended for users who are able to set up a local LLM server (Ollama or LM Studio) within their own LAN environment. Some technical setup is required. Chat with your local LLM! Seamlessly connect to Ollama or LM Studio for a fully offline, privacy-focused AI chat experience! This iOS app connects to a locally hosted Large Language Model (LLM) server and enables seamless, natural conversations. Compatible with Ollama and LM Studio via HTTP, it provides real-time message streaming and intuitive chat history management. The app operates entirely within a local network—no internet connection required—making it ideal for those who prioritize privacy and security. Key Features: - Easy connection to local LLM servers (Ollama / LM Studio) - Natural chat UI with bubble-style layout - Auto-saving and browsing chat history - Server and model selection via settings screen - Supports Dark Mode

Última versão

1.1.1

Tamanho

2.7 MB

Data de lançamento

3 de ago. de 2025

Comande Seus Modelos Locais de Qualquer Lugar

Elimine a distância entre sua estação de trabalho e seu dispositivo móvel. Experimente uma interface de chat polida em modo escuro para sua configuração Ollama ou LM Studio – nenhum dado sai da sua LAN.

Baixar no App Store

App information, icons, screenshots, and descriptions displayed on this page are sourced from the Apple App Store and are the property of their respective developers. Download estimates and rankings are based on MWM's proprietary models and may not reflect actual figures. This page is provided for informational and analytical purposes only.

Believe this page infringes your intellectual property? File a dispute