OfflineLLM: Private AI Chat
OfflineLLM: Private AI Chat
Herunterladen auf App Store

Diese Seite ist keine offizielle Seite der App oder ihres Entwicklers, sondern eine unabhängige redaktionelle Veröffentlichung, die zu Informations- und Kommentarzwecken erstellt wurde. Sofern nicht ausdrücklich anders angegeben, sind weder die App noch ihr Entwickler mit MWM, Apple, Google Play, dem App-Herausgeber oder dem Entwickler der App verbunden, von ihnen unterstützt, gesponsert, autorisiert oder anderweitig offiziell verbunden, und nichts auf dieser Seite impliziert, dass die App unter Verwendung der Dienste von MWM entwickelt wurde. Alle Marken, Logos, Screenshots und andere Inhalte bleiben Eigentum ihrer jeweiligen Inhaber.

Logo von OfflineLLM: Private AI Chat
Herunterladen auf App Store

OfflineLLM: Private AI Chat

Sichern Sie Ihre Datensouveränität mit der schnellsten Offline-KI-Engine. Nutzen Sie Llama, DeepSeek und Mistral lokal auf Ihrem iPhone, Mac und Vision Pro mit Metal 3-Leistung, RAG-Unterstützung und keinerlei Cloud-Abhängigkeit.

Kennzahlen

Downloads

5K+

Bewertung

2.3/5

Bewertungen gesamt

0

Herausgeber

Bilaal Rashid

Kategorie

Productivity

Sprachen

2

Neueste Version

4.0.2

Größe

526.8 MB

Erstveröffentlichung

19. Dez. 2023
Funktionen

Kompromisslose Privatsphäre, Desktop-Klasse Leistung

Nutzen Sie die Leistung lokaler LLMs auf Ihren Apple-Geräten. Kein Internet, keine Nachverfolgung und keine Datenlecks – nur reine, private Intelligenz, optimiert für Apple Silicon.

Null-Cloud-Datensouveränität

Alles bleibt auf dem Gerät. Verarbeiten Sie vertrauliche Schriftsätze, proprietären Code oder persönliche Aufzeichnungen mit der absoluten Gewissheit, dass Ihre Daten niemals zum Training verwendet oder auf einem entfernten Server gespeichert werden.

Native Metal 3-Optimierung

Entwickelt für maximalen Durchsatz auf M-Serie-Chips. Übertrifft Standardimplementierungen durch Nutzung einer benutzerdefinierten Ausführungs-Engine, die für flüssige Echtzeitantworten auf iPhone, iPad und Mac entwickelt wurde.

Die folgenden Screenshots und die Beschreibung stammen direkt aus dem offiziellen Store-Eintrag der App und sind Eigentum des Entwicklers.

App Store

Screenshots

OfflineLLM: Private AI Chat - OfflineLLM-Oberfläche, die einen privaten Chat mit dem DeepSeek R1-Modell zeigt, das im Flugmodus einen Reiseplan für New York generiert.

OfflineLLM-Oberfläche, die einen privaten Chat mit dem DeepSeek R1-Modell zeigt, das im Flugmodus einen Reiseplan für New York generiert.

OfflineLLM: Private AI Chat - Eine Liste unterstützter lokaler KI-Modelle für die App, einschließlich Llama, DeepSeek, Gemma und Mistral.

Eine Liste unterstützter lokaler KI-Modelle für die App, einschließlich Llama, DeepSeek, Gemma und Mistral.

OfflineLLM: Private AI Chat - Privater KI-Chat, der eine Karotte in einem Foto mit lokalen Vision-Modellen auf dem iPhone identifiziert

Privater KI-Chat, der eine Karotte in einem Foto mit lokalen Vision-Modellen auf dem iPhone identifiziert

OfflineLLM: Private AI Chat - OfflineLLM Private Voice Chat-Oberfläche, die das DeepSeek R1-Modell und eine Sprachwelle zeigt

OfflineLLM Private Voice Chat-Oberfläche, die das DeepSeek R1-Modell und eine Sprachwelle zeigt

OfflineLLM: Private AI Chat - iPhone-Bildschirm, der die Siri Shortcuts-Integration für die OfflineLLM Private AI Chat-App zeigt

iPhone-Bildschirm, der die Siri Shortcuts-Integration für die OfflineLLM Private AI Chat-App zeigt

OfflineLLM: Private AI Chat - Screenshot der erweiterten Konfigurationsseite in der OfflineLLM-App mit Einstellungen für Vorhersage und Sampling auf einem iPhone.

Screenshot der erweiterten Konfigurationsseite in der OfflineLLM-App mit Einstellungen für Vorhersage und Sampling auf einem iPhone.

OfflineLLM: Private AI Chat - Oberfläche der OfflineLLM-App, die Retrieval Augmented Generation-Einstellungen und Optionen zum Importieren von Dokumenten auf einem iPhone anzeigt.

Oberfläche der OfflineLLM-App, die Retrieval Augmented Generation-Einstellungen und Optionen zum Importieren von Dokumenten auf einem iPhone anzeigt.

OfflineLLM: Private AI Chat - Oberfläche mit API-Einstellungen und OpenAI-kompatiblen Endpunkten für die lokale KI-Integration.

Oberfläche mit API-Einstellungen und OpenAI-kompatiblen Endpunkten für die lokale KI-Integration.

OfflineLLM: Private AI Chat - OfflineLLM-App, die lokal auf iPhone, iPad, Mac und Vision Pro läuft

OfflineLLM-App, die lokal auf iPhone, iPad, Mac und Vision Pro läuft

OfflineLLM: Private AI Chat - Leistungsvergleichsdiagramm, das die Geschwindigkeit von OfflineLLM im Vergleich zu llama.cpp und MLC auf Apple Silicon zeigt

Leistungsvergleichsdiagramm, das die Geschwindigkeit von OfflineLLM im Vergleich zu llama.cpp und MLC auf Apple Silicon zeigt

Beschreibung

OfflineLLM uses a custom execution engine for LLMs, optimised specifically for Apple Silicon on iPhone, iPad, Mac and Vision Pro. Using the full power of Metal 3, OfflineLLM is able to run faster on consumer devices than apps based on llama.cpp and MLC. Welcome to AI chatbots that can be used without the risk of compromising confidential and sensitive data. For the first time, you can have personal GPT assistants running privately on your device without an Internet connection. No data is ever sent to the cloud. Your conversations never leave your device. Continue using your AI chatbots when in Airplane mode. Chat directly with the LLM that powers Apple Intelligence! Experience multi-modal vision models like never before on the iPhone. Send images to your offline AI chatbots. Further enhance your AI chatbots using RAG (Retrieval Augmented Generation) to integrate your own documents and files into your LLMs. Beginner mode allows novices to step into the world of LLMs and AI chatbots. Advanced mode allows experts to configure every parameter of the LLM execution engine. Interact with Offline LLM, anywhere and on any device. Extend the app with system Shortcuts, Automations and Widgets. Have other tools? Use our OpenAI-compatible API to integrate with other systems. Use state-of-the-art AI models, such as DeepSeek, Llama or Gemma to privately answer any questions you may have. Offline LLM supports any GGUF model, including: - GPT-OSS - DeepSeek - Llama - Gemma - Phi - Mistral - ORCA - MobileVLM - StableLM - Code Llama - VisionLlama - TinyLlama - OpenHermes - WizardLM - RWKV Whether you are getting ready for an important presentation, a copywriter looking for a clever turn of phrase, or a student needing to summarise a large article of text for an essay, an AI chatbot can help you. Offline LLM can be your personal AI assistant. AI Writing Assistant: Get personalised help from your AI chatbot. Draft anything from emails and speeches to lyrics and poems. Grammar and Spelling Checker: Using the fastest GPT on the App Store, quickly check and correct your grammar, spelling and function. Professional Proofreading and Rewriting: Use AI to proofread and rewrite your text to make it more engaging, coherent and professional. Summarise Text: Let your personalised AI assistant read large articles of text and summarise them neatly and concisely so that you can quickly understand large chunks of information in record time. Personal Tutor: Learn any concept quickly and easily. Ask your GPT tutor to explain any concept for you to learn in record time. Tackle homework and assignments with ease and get top marks. Coding Assistant: Your personalised AI coding assistant. Get help programming in any language, including Python, JavaScript, TypeScript, Java, Swift, Kotlin, PHP, Go, C/C++, Haskell, Perl, Ruby, Rust, C# and more. Write efficient and reliable production code in record time with the help of AI. Learn Languages: Learn any language with the help of a fluent AI chatbot. Master any language in record time. Ultimate Creativity Expert: Get instant creativity at your fingertips with the help of an AI creative. Impress others with your newfound creativity. AI Friend: Chat with a companion 24/7 with access to an AI chatbot. Quick answers in real-time to all of your messages. No more being left on blue ticks. Gourmet Chef: Get delicious food recipes and meal inspiration from an AI expert. Offline LLM can run a variety of models, which are capable of running on a range of devices. Performance on devices will vary and depend on the model selected. More advanced models are optimized for powerful Macs and iPads and will struggle to run on older iPhones. To successfully run a model, your device must have more VRAM than the model you choose to use. Large language models perform differently for each question asked; some questions will run significantly quicker or slower than others.

Download

Herunterladen auf App Store

Diese Seite ist keine offizielle Seite der App oder ihres Entwicklers, sondern eine unabhängige redaktionelle Veröffentlichung, die zu Informations- und Kommentarzwecken erstellt wurde. Sofern nicht ausdrücklich anders angegeben, sind weder die App noch ihr Entwickler mit MWM, Apple, Google Play, dem App-Herausgeber oder dem Entwickler der App verbunden, von ihnen unterstützt, gesponsert, autorisiert oder anderweitig offiziell verbunden, und nichts auf dieser Seite impliziert, dass die App unter Verwendung der Dienste von MWM entwickelt wurde. Alle Marken, Logos, Screenshots und andere Inhalte bleiben Eigentum ihrer jeweiligen Inhaber.