OfflineLLM: Private AI Chat
OfflineLLM: Private AI Chat
Scarica su App Store

Questa pagina non è una pagina ufficiale dell'app o del suo sviluppatore, ma una pubblicazione editoriale indipendente creata a scopo informativo e di commento. Salvo espressa indicazione contraria, né l'app né il suo sviluppatore sono affiliati, approvati, sponsorizzati, autorizzati o altrimenti ufficialmente collegati a MWM, Apple, Google Play, all'editore dell'app o allo sviluppatore dell'app, e nulla in questa pagina implica che l'app sia stata sviluppata utilizzando i servizi di MWM. Tutti i marchi, loghi, screenshot e altri contenuti rimangono di proprietà dei rispettivi proprietari.

Logo di OfflineLLM: Private AI Chat
Scarica su App Store

OfflineLLM: Private AI Chat

Proteggi la sovranità dei tuoi dati con il motore AI offline più veloce. Sfrutta Llama, DeepSeek e Mistral localmente sul tuo iPhone, Mac e Vision Pro con prestazioni Metal 3, supporto RAG e zero dipendenza dal cloud.

Numeri Chiave

Download

5K+

Valutazione

2.3/5

Valutazioni totali

0

Editore

Bilaal Rashid

Categoria

Productivity

Lingue

2

Ultima versione

4.0.2

Dimensione

526.8 MB

Data di lancio

19 dic 2023
Funzioni

Privacy Senza Compromessi, Prestazioni di Classe Desktop

Sfrutta la potenza degli LLM locali sui tuoi dispositivi Apple. Nessun internet, nessun tracciamento e nessuna fuga di dati — solo intelligenza pura e privata ottimizzata per Apple Silicon.

Sovranità dei Dati Zero-Cloud

Tutto rimane sul dispositivo. Elabora documenti legali riservati, codice proprietario o registri personali con la certezza assoluta che i tuoi dati non vengano mai utilizzati per l'addestramento o memorizzati su un server remoto.

Ottimizzazione Nativa Metal 3

Progettato per la massima velocità di elaborazione sui chip della serie M. Supera le implementazioni standard sfruttando un motore di esecuzione personalizzato progettato per risposte fluide e in tempo reale su iPhone, iPad e Mac.

Gli screenshot e la descrizione seguenti provengono direttamente dall'elenco ufficiale dello store dell'app e sono di proprietà dello sviluppatore.

App Store

Screenshot

OfflineLLM: Private AI Chat - Interfaccia di OfflineLLM che mostra una chat privata con il modello DeepSeek R1 che genera un piano di viaggio a New York in modalità aereo.

Interfaccia di OfflineLLM che mostra una chat privata con il modello DeepSeek R1 che genera un piano di viaggio a New York in modalità aereo.

OfflineLLM: Private AI Chat - Un elenco di modelli AI offline supportati per l'app, inclusi Llama, DeepSeek, Gemma e Mistral.

Un elenco di modelli AI offline supportati per l'app, inclusi Llama, DeepSeek, Gemma e Mistral.

OfflineLLM: Private AI Chat - Chat AI privata che identifica una carota in una foto utilizzando modelli di visione locali su iPhone

Chat AI privata che identifica una carota in una foto utilizzando modelli di visione locali su iPhone

OfflineLLM: Private AI Chat - Interfaccia di chat vocale privata di OfflineLLM che mostra il modello DeepSeek R1 e la forma d'onda vocale

Interfaccia di chat vocale privata di OfflineLLM che mostra il modello DeepSeek R1 e la forma d'onda vocale

OfflineLLM: Private AI Chat - Schermata dell'iPhone che mostra l'integrazione con le Scorciatoie Siri per l'app di chat AI privata OfflineLLM

Schermata dell'iPhone che mostra l'integrazione con le Scorciatoie Siri per l'app di chat AI privata OfflineLLM

OfflineLLM: Private AI Chat - Screenshot della pagina di configurazione avanzata nell'app OfflineLLM che visualizza le impostazioni di predizione e campionamento su un iPhone.

Screenshot della pagina di configurazione avanzata nell'app OfflineLLM che visualizza le impostazioni di predizione e campionamento su un iPhone.

OfflineLLM: Private AI Chat - Interfaccia dell'app OfflineLLM che mostra le impostazioni di Generazione Aumentata dal Recupero e le opzioni di importazione dei documenti su un iPhone.

Interfaccia dell'app OfflineLLM che mostra le impostazioni di Generazione Aumentata dal Recupero e le opzioni di importazione dei documenti su un iPhone.

OfflineLLM: Private AI Chat - Interfaccia che mostra le impostazioni API e gli endpoint compatibili con OpenAI per l'integrazione AI locale.

Interfaccia che mostra le impostazioni API e gli endpoint compatibili con OpenAI per l'integrazione AI locale.

OfflineLLM: Private AI Chat - App OfflineLLM in esecuzione localmente su iPhone, iPad, Mac e Vision Pro

App OfflineLLM in esecuzione localmente su iPhone, iPad, Mac e Vision Pro

OfflineLLM: Private AI Chat - Grafico di benchmark delle prestazioni che mostra la velocità di OfflineLLM rispetto a llama.cpp e MLC su Apple Silicon.

Grafico di benchmark delle prestazioni che mostra la velocità di OfflineLLM rispetto a llama.cpp e MLC su Apple Silicon.

Descrizione

OfflineLLM uses a custom execution engine for LLMs, optimised specifically for Apple Silicon on iPhone, iPad, Mac and Vision Pro. Using the full power of Metal 3, OfflineLLM is able to run faster on consumer devices than apps based on llama.cpp and MLC. Welcome to AI chatbots that can be used without the risk of compromising confidential and sensitive data. For the first time, you can have personal GPT assistants running privately on your device without an Internet connection. No data is ever sent to the cloud. Your conversations never leave your device. Continue using your AI chatbots when in Airplane mode. Chat directly with the LLM that powers Apple Intelligence! Experience multi-modal vision models like never before on the iPhone. Send images to your offline AI chatbots. Further enhance your AI chatbots using RAG (Retrieval Augmented Generation) to integrate your own documents and files into your LLMs. Beginner mode allows novices to step into the world of LLMs and AI chatbots. Advanced mode allows experts to configure every parameter of the LLM execution engine. Interact with Offline LLM, anywhere and on any device. Extend the app with system Shortcuts, Automations and Widgets. Have other tools? Use our OpenAI-compatible API to integrate with other systems. Use state-of-the-art AI models, such as DeepSeek, Llama or Gemma to privately answer any questions you may have. Offline LLM supports any GGUF model, including: - GPT-OSS - DeepSeek - Llama - Gemma - Phi - Mistral - ORCA - MobileVLM - StableLM - Code Llama - VisionLlama - TinyLlama - OpenHermes - WizardLM - RWKV Whether you are getting ready for an important presentation, a copywriter looking for a clever turn of phrase, or a student needing to summarise a large article of text for an essay, an AI chatbot can help you. Offline LLM can be your personal AI assistant. AI Writing Assistant: Get personalised help from your AI chatbot. Draft anything from emails and speeches to lyrics and poems. Grammar and Spelling Checker: Using the fastest GPT on the App Store, quickly check and correct your grammar, spelling and function. Professional Proofreading and Rewriting: Use AI to proofread and rewrite your text to make it more engaging, coherent and professional. Summarise Text: Let your personalised AI assistant read large articles of text and summarise them neatly and concisely so that you can quickly understand large chunks of information in record time. Personal Tutor: Learn any concept quickly and easily. Ask your GPT tutor to explain any concept for you to learn in record time. Tackle homework and assignments with ease and get top marks. Coding Assistant: Your personalised AI coding assistant. Get help programming in any language, including Python, JavaScript, TypeScript, Java, Swift, Kotlin, PHP, Go, C/C++, Haskell, Perl, Ruby, Rust, C# and more. Write efficient and reliable production code in record time with the help of AI. Learn Languages: Learn any language with the help of a fluent AI chatbot. Master any language in record time. Ultimate Creativity Expert: Get instant creativity at your fingertips with the help of an AI creative. Impress others with your newfound creativity. AI Friend: Chat with a companion 24/7 with access to an AI chatbot. Quick answers in real-time to all of your messages. No more being left on blue ticks. Gourmet Chef: Get delicious food recipes and meal inspiration from an AI expert. Offline LLM can run a variety of models, which are capable of running on a range of devices. Performance on devices will vary and depend on the model selected. More advanced models are optimized for powerful Macs and iPads and will struggle to run on older iPhones. To successfully run a model, your device must have more VRAM than the model you choose to use. Large language models perform differently for each question asked; some questions will run significantly quicker or slower than others.

Download

Scarica su App Store

Questa pagina non è una pagina ufficiale dell'app o del suo sviluppatore, ma una pubblicazione editoriale indipendente creata a scopo informativo e di commento. Salvo espressa indicazione contraria, né l'app né il suo sviluppatore sono affiliati, approvati, sponsorizzati, autorizzati o altrimenti ufficialmente collegati a MWM, Apple, Google Play, all'editore dell'app o allo sviluppatore dell'app, e nulla in questa pagina implica che l'app sia stata sviluppata utilizzando i servizi di MWM. Tutti i marchi, loghi, screenshot e altri contenuti rimangono di proprietà dei rispettivi proprietari.