Private LLM

Private LLM

Logo di Private LLM

LLM Privato: Sovranità AI Locale in Tasca

L'interfaccia mobile minimalista e senza account per i tuoi modelli Ollama e self-hosted. Nessun cloud, nessun tracciamento – solo accesso sicuro e in streaming alla tua intelligenza privata.

Editore

Mario Cadenas

Categoria

Developer Tools

Download

1K+

Valutazione

1.0/5

Valutazioni totali

0

Lingue

1

Intelligenza Alle Tue Condizioni

Scopri l'interfaccia usata da 1K+ utenti.

Interfaccia dell'app Private LLM che mostra un elenco di chat per modelli Ollama self-hosted su un iPhone.

Interfaccia dell'app Private LLM che mostra un elenco di chat per modelli Ollama self-hosted su un iPhone.

Interfaccia dell'app Private LLM che mostra un elenco di modelli AI locali salvati con i loro endpoint IP e un'opzione per aggiungerne altri.

Interfaccia dell'app Private LLM che mostra un elenco di modelli AI locali salvati con i loro endpoint IP e un'opzione per aggiungerne altri.

Interfaccia dell'app Private LLM su iPhone che mostra una schermata di chat con selezione del modello e privacy dei dati locali.

Interfaccia dell'app Private LLM su iPhone che mostra una schermata di chat con selezione del modello e privacy dei dati locali.

Gestisci la Tua Infrastruttura AI Privata

Gli strumenti che rendono questa app unica, scelti da 1K+ utenti.

🛡️

Sovranità Totale dei Dati

Nessun account, nessun tracciamento e nessuna sincronizzazione cloud. I tuoi prompt rimangono sul tuo server, garantendo che i tuoi dati non vengano mai utilizzati per addestrare modelli aziendali.

💻

Integrazione Ollama Nativa

Connettiti senza problemi al tuo server domestico con streaming in tempo reale e supporto completo Markdown per codice, documentazione e query tecniche.

Efficienza Iper-Leggera

Un'app senza bloat progettata per la velocità. A soli 519KB, offre un'interfaccia ad alte prestazioni senza script o telemetria non necessari.

Info sull'app

Tutto quello che devi sapere su Private LLM.

Descrizione

App di chat compatibile con Ollama e modelli self-hosted. È necessario un server Ollama in esecuzione e aggiungere l'endpoint nelle impostazioni del modello. Tutte le informazioni salvate sono locali, tutto è privato e non è necessario alcun account. Supporta lo streaming dei messaggi e markdown. Potrebbe funzionare anche con modelli serviti senza Ollama, ma non è stato testato.

Ultima versione

1.0

Dimensione

0.5 MB

Data di lancio

12 ago 2025

Pronto per la Sovranità Totale dei Dati?

Scarica l'interfaccia più leggera e senza fronzoli per i tuoi LLM self-hosted. Connetti il tuo server Ollama e inizia a chattare senza tracciamento e senza account.

App information, icons, screenshots, and descriptions displayed on this page are sourced from the Apple App Store and are the property of their respective developers. Download estimates and rankings are based on MWM's proprietary models and may not reflect actual figures. This page is provided for informational and analytical purposes only.

Believe this page infringes your intellectual property? File a dispute