이 페이지는 앱이나 개발자의 공식 페이지가 아니며, 정보 제공 및 논평을 목적으로 작성된 독립 편집 간행물입니다. 명시적으로 달리 언급되지 않는 한, 해당 앱이나 개발자는 MWM, Apple, Google Play, 앱 퍼블리셔 또는 앱 개발자와 제휴, 보증, 후원, 승인 또는 공식적으로 연결되어 있지 않으며, 이 페이지의 어떤 내용도 해당 앱이 MWM의 서비스를 사용하여 개발되었음을 의미하지 않습니다. 모든 상표, 로고, 스크린샷 및 기타 콘텐츠는 해당 소유자의 자산입니다.
Local LLM: Private Secure Chat
LLaMA, Mistral, DeepSeek를 iPhone, iPad, Mac에서 네이티브로 실행하세요. 구독, 데이터 수집, 인터넷 연결이 필요 없이 Apple Silicon에 최적화된 순수 AI 성능을 경험하세요.
주요 수치
다운로드
1K+
사용자 평점
3.7/5
총 평가 수
0
개발사
Pocket Bits LLC
카테고리
Utilities
지원 언어
1
최신 버전
1.2
크기
4.5 MB
출시일
2025년 4월 1일
기능
가장 민감한 작업을 위한 타협하지 않는 AI
Apple 기기에서 세계적 수준의 오픈소스 모델을 네이티브로 활용하세요. 클라우드, 추적, 구독료 없이 사용 가능합니다.
완벽한 데이터 주권
모든 작업이 로컬에서 이루어집니다. 대화, 프롬프트, 독점 코드는 데이터 수집 및 클라우드 유출로부터 보호되는 기기에 안전하게 보관됩니다.
최고 수준의 오픈소스 모델
Llama, Mistral, DeepSeek를 포함한 엄선된 라이브러리에 즉시 액세스하세요. 심층적인 추론부터 창의적인 글쓰기까지, 작업에 맞춰 모델을 전환하세요.
다음 스크린샷과 설명은 앱의 공식 스토어 목록에서 직접 가져온 것이며 앱 개발자의 자산입니다.
앱 스토어
스크린샷
미국 기반 회사의 신뢰할 수 있는 개인 정보 보호 배지와 함께 Llama, Mistral과 같은 지원되는 오픈 소스 AI 모델을 보여주는 그래픽
스마트폰에서 비공개 및 안전한 오프라인 AI 채팅을 보여주는 로컬 LLM 앱 인터페이스
다운로드를 위한 AI 모델 목록을 보여주는 로컬 LLM 앱 인터페이스
로컬 LLM 앱 인터페이스가 스마트폰에서 NDA 초안을 작성하는 모습
로컬 LLM 앱의 사용자 정의 가능한 AI 성격 설정
AI가 소수 판별 파이썬 함수를 생성하는 오프라인 채팅 세션을 보여주는 로컬 LLM 앱 인터페이스.
'가드레일 없음'이라는 제목으로 다운로드 가능한 검열되지 않은 AI 모델 목록을 보여주는 모바일 인터페이스
iPhone 화면에서 Siri 및 단축키 통합을 보여주는 로컬 LLM 앱
로컬 LLM 앱에서 일회성 구매와 구독 모델의 이점을 보여주는 비교표.
설명
■ #1 Local AI App to Run Open-Source LLMs by a USA-Based Company
■ Pocket Bits LLC is OPSWAT Anti-Malware Certified
■ Your offline AI toolkit. Download and run LLaMA, Mistral, Phi, Qwen, DeepSeek, Gemma, and more
One-time purchase. Lifetime updates and support. Family Sharing included.
No monthly fees. No accounts. No API keys.
Local LLM is your powerful offline AI toolkit—designed specifically for iPhone, iPad, and Mac. Run advanced open-source language models directly on your device with no internet, no tracking, and no cloud. Whether you’re writing, coding, researching, or just exploring ideas, Local LLM gives you fast, private, and secure AI—right in your pocket.
≈ Key Features ≈
◉ 100% Offline, Fully Private
Everything happens locally. Your prompts, data, and chats never leave your device.
◉ Your AI, Your Way
Customize how your assistant responds. Adjust tone, behavior, and instructions for creative, technical, or casual use.
◉ Built-In Support for Leading Open-Source Models
Choose from top models developed by major AI labs, each optimized for performance and privacy on Apple devices:
• LLaMA – by Meta · strong general-purpose reasoning
• Mistral – by Mistral AI · fast, compact, great for logic
• Phi – by Microsoft · lightweight, practical assistant
• Qwen – by Alibaba · strong multilingual capabilities
• Gemma – by Google DeepMind · safe, helpful responses
• DeepSeek – by DeepSeek AI · tuned for math and code
◉ Optimized for Apple Silicon
Runs natively using Swift and Metal. Experience blazing-fast AI with smooth UI, and full integration with Siri and Shortcuts.
≈ Use Cases ≈
◎ Draft emails, docs, and notes with complete privacy
◎ Review sensitive or proprietary content securely
◎ Write and test code—no cloud, no leaks
◎ Brainstorm, summarize, and write creatively
◎ Ask anything—no filters or restrictions
◎ Stay productive even offline or disconnected
Whether you’re a developer, writer, student, or just someone who values privacy and control, Local LLM brings powerful AI to your fingertips—offline, secure, and completely yours.
Have questions or feedback? Reach out: support@pocketbitsllc.com
We read every message. Thanks for all the support!
이 페이지는 앱이나 개발자의 공식 페이지가 아니며, 정보 제공 및 논평을 목적으로 작성된 독립 편집 간행물입니다. 명시적으로 달리 언급되지 않는 한, 해당 앱이나 개발자는 MWM, Apple, Google Play, 앱 퍼블리셔 또는 앱 개발자와 제휴, 보증, 후원, 승인 또는 공식적으로 연결되어 있지 않으며, 이 페이지의 어떤 내용도 해당 앱이 MWM의 서비스를 사용하여 개발되었음을 의미하지 않습니다. 모든 상표, 로고, 스크린샷 및 기타 콘텐츠는 해당 소유자의 자산입니다.