OfflineLLM: Private AI Chat
OfflineLLM: Private AI Chat
Baixar no App Store

Esta página não é uma página oficial do aplicativo ou de seu desenvolvedor, mas uma publicação editorial independente criada para fins informativos e de comentário. Salvo indicação expressa em contrário, nem o aplicativo nem seu desenvolvedor são afiliados, endossados, patrocinados, autorizados ou oficialmente conectados à MWM, Apple, Google Play, ao editor do aplicativo ou ao desenvolvedor do aplicativo, e nada nesta página implica que o aplicativo foi desenvolvido utilizando os serviços da MWM. Todas as marcas comerciais, logotipos, capturas de tela e outros conteúdos permanecem propriedade de seus respectivos proprietários.

Logo de OfflineLLM: Private AI Chat
Baixar no App Store

OfflineLLM: Private AI Chat

Proteja a soberania dos seus dados com o motor de IA offline mais rápido. Utilize Llama, DeepSeek e Mistral localmente no seu iPhone, Mac e Vision Pro com desempenho Metal 3, suporte RAG e zero dependência da nuvem.

Números Chave

Downloads

5K+

Avaliação

2.3/5

Total de avaliações

0

Editor

Bilaal Rashid

Categoria

Productivity

Idiomas

2

Última versão

4.0.2

Tamanho

526.8 MB

Data de lançamento

19 de dez. de 2023
Recursos

Privacidade Incompromissível, Desempenho de Nível Desktop

Utilize o poder dos LLMs locais em seus dispositivos Apple. Sem internet, sem rastreamento e sem vazamento de dados — apenas inteligência pura e privada otimizada para Apple Silicon.

Soberania de Dados Zero-Nuvem

Tudo fica no dispositivo. Processe petições legais confidenciais, código proprietário ou registros pessoais com a certeza absoluta de que seus dados nunca serão usados para treinamento ou armazenados em um servidor remoto.

Otimização Nativa Metal 3

Engenheirado para o máximo de throughput em chips da série M. Supera implementações padrão ao alavancar um motor de execução personalizado projetado para respostas fluidas e em tempo real no iPhone, iPad e Mac.

As capturas de tela e a descrição a seguir são provenientes diretamente da listagem oficial da loja do aplicativo e são propriedade do desenvolvedor.

App Store

Capturas

OfflineLLM: Private AI Chat - Interface do OfflineLLM mostrando um chat privado com o modelo DeepSeek R1 gerando um plano de viagem para Nova York em modo avião.

Interface do OfflineLLM mostrando um chat privado com o modelo DeepSeek R1 gerando um plano de viagem para Nova York em modo avião.

OfflineLLM: Private AI Chat - Uma lista de modelos de IA offline suportados para o aplicativo, incluindo Llama, DeepSeek, Gemma e Mistral.

Uma lista de modelos de IA offline suportados para o aplicativo, incluindo Llama, DeepSeek, Gemma e Mistral.

OfflineLLM: Private AI Chat - Chat de IA privado identificando uma cenoura em uma foto usando modelos de visão local no iPhone.

Chat de IA privado identificando uma cenoura em uma foto usando modelos de visão local no iPhone.

OfflineLLM: Private AI Chat - Interface de chat de voz privado do OfflineLLM mostrando o modelo DeepSeek R1 e forma de onda de voz.

Interface de chat de voz privado do OfflineLLM mostrando o modelo DeepSeek R1 e forma de onda de voz.

OfflineLLM: Private AI Chat - Tela do iPhone mostrando a integração de Atalhos da Siri para o aplicativo de chat de IA privado OfflineLLM.

Tela do iPhone mostrando a integração de Atalhos da Siri para o aplicativo de chat de IA privado OfflineLLM.

OfflineLLM: Private AI Chat - Captura de tela da página de configuração avançada no aplicativo OfflineLLM exibindo configurações para previsão e amostragem em um iPhone.

Captura de tela da página de configuração avançada no aplicativo OfflineLLM exibindo configurações para previsão e amostragem em um iPhone.

OfflineLLM: Private AI Chat - Interface do aplicativo OfflineLLM mostrando configurações de Geração Aumentada por Recuperação e opções de importação de documentos em um iPhone.

Interface do aplicativo OfflineLLM mostrando configurações de Geração Aumentada por Recuperação e opções de importação de documentos em um iPhone.

OfflineLLM: Private AI Chat - Interface mostrando configurações de API e endpoints compatíveis com OpenAI para integração de IA local.

Interface mostrando configurações de API e endpoints compatíveis com OpenAI para integração de IA local.

OfflineLLM: Private AI Chat - Aplicativo OfflineLLM rodando localmente em iPhone, iPad, Mac e Vision Pro.

Aplicativo OfflineLLM rodando localmente em iPhone, iPad, Mac e Vision Pro.

OfflineLLM: Private AI Chat - Gráfico de benchmark de desempenho mostrando a velocidade do OfflineLLM em comparação com llama.cpp e MLC em Apple Silicon.

Gráfico de benchmark de desempenho mostrando a velocidade do OfflineLLM em comparação com llama.cpp e MLC em Apple Silicon.

Descrição

OfflineLLM uses a custom execution engine for LLMs, optimised specifically for Apple Silicon on iPhone, iPad, Mac and Vision Pro. Using the full power of Metal 3, OfflineLLM is able to run faster on consumer devices than apps based on llama.cpp and MLC. Welcome to AI chatbots that can be used without the risk of compromising confidential and sensitive data. For the first time, you can have personal GPT assistants running privately on your device without an Internet connection. No data is ever sent to the cloud. Your conversations never leave your device. Continue using your AI chatbots when in Airplane mode. Chat directly with the LLM that powers Apple Intelligence! Experience multi-modal vision models like never before on the iPhone. Send images to your offline AI chatbots. Further enhance your AI chatbots using RAG (Retrieval Augmented Generation) to integrate your own documents and files into your LLMs. Beginner mode allows novices to step into the world of LLMs and AI chatbots. Advanced mode allows experts to configure every parameter of the LLM execution engine. Interact with Offline LLM, anywhere and on any device. Extend the app with system Shortcuts, Automations and Widgets. Have other tools? Use our OpenAI-compatible API to integrate with other systems. Use state-of-the-art AI models, such as DeepSeek, Llama or Gemma to privately answer any questions you may have. Offline LLM supports any GGUF model, including: - GPT-OSS - DeepSeek - Llama - Gemma - Phi - Mistral - ORCA - MobileVLM - StableLM - Code Llama - VisionLlama - TinyLlama - OpenHermes - WizardLM - RWKV Whether you are getting ready for an important presentation, a copywriter looking for a clever turn of phrase, or a student needing to summarise a large article of text for an essay, an AI chatbot can help you. Offline LLM can be your personal AI assistant. AI Writing Assistant: Get personalised help from your AI chatbot. Draft anything from emails and speeches to lyrics and poems. Grammar and Spelling Checker: Using the fastest GPT on the App Store, quickly check and correct your grammar, spelling and function. Professional Proofreading and Rewriting: Use AI to proofread and rewrite your text to make it more engaging, coherent and professional. Summarise Text: Let your personalised AI assistant read large articles of text and summarise them neatly and concisely so that you can quickly understand large chunks of information in record time. Personal Tutor: Learn any concept quickly and easily. Ask your GPT tutor to explain any concept for you to learn in record time. Tackle homework and assignments with ease and get top marks. Coding Assistant: Your personalised AI coding assistant. Get help programming in any language, including Python, JavaScript, TypeScript, Java, Swift, Kotlin, PHP, Go, C/C++, Haskell, Perl, Ruby, Rust, C# and more. Write efficient and reliable production code in record time with the help of AI. Learn Languages: Learn any language with the help of a fluent AI chatbot. Master any language in record time. Ultimate Creativity Expert: Get instant creativity at your fingertips with the help of an AI creative. Impress others with your newfound creativity. AI Friend: Chat with a companion 24/7 with access to an AI chatbot. Quick answers in real-time to all of your messages. No more being left on blue ticks. Gourmet Chef: Get delicious food recipes and meal inspiration from an AI expert. Offline LLM can run a variety of models, which are capable of running on a range of devices. Performance on devices will vary and depend on the model selected. More advanced models are optimized for powerful Macs and iPads and will struggle to run on older iPhones. To successfully run a model, your device must have more VRAM than the model you choose to use. Large language models perform differently for each question asked; some questions will run significantly quicker or slower than others.

Download

Baixar no App Store

Esta página não é uma página oficial do aplicativo ou de seu desenvolvedor, mas uma publicação editorial independente criada para fins informativos e de comentário. Salvo indicação expressa em contrário, nem o aplicativo nem seu desenvolvedor são afiliados, endossados, patrocinados, autorizados ou oficialmente conectados à MWM, Apple, Google Play, ao editor do aplicativo ou ao desenvolvedor do aplicativo, e nada nesta página implica que o aplicativo foi desenvolvido utilizando os serviços da MWM. Todas as marcas comerciais, logotipos, capturas de tela e outros conteúdos permanecem propriedade de seus respectivos proprietários.