--- > [!NOTE] 目次 ```table-of-contents title: minLevel: 0 maxLevel: 0 includeLinks: true ``` --- > [!NOTE] リスト掲載用文字列 - [anything-llm/locales/README.ja-JP.md at master · Mintplex-Labs/anything-llm](https://github.com/Mintplex-Labs/anything-llm/blob/master/locales/README.ja-JP.md)【GitHub】(2026年02月09日) --- > [!NOTE] この記事の要約(箇条書き) - **AnythingLLM** は、ドキュメントとのチャット、AIエージェントの利用、高度なカスタマイズ、複数ユーザー対応が可能なオールインワンAIアプリケーションです。 - LLMやベクトルデータベースを自由に選択でき、ローカルまたはリモートで実行可能です。 - 主な機能には、マルチユーザーインスタンスと権限、ウェブ閲覧などのエージェント、カスタム埋め込み可能チャットウィジェット、複数のドキュメントタイプ(PDF, TXT, DOCXなど)のサポートが含まれます。 - 会話とクエリの2つのチャットモード、チャット中の引用、100%クラウドデプロイメント対応が特徴です。 - 任意のllama.cpp互換モデル、OpenAI、Azure OpenAI、Google Gemini Pro、Ollamaなど、多様なLLMをサポートしています。 - LanceDB(デフォルト)、PGVector、Pinecone、Chroma、Weaviateなど、複数のベクトルデータベースに対応しています。 - Docker、AWS、GCP、Digital Ocean、Render.com、Railway、ベアメタルなど、様々なセルフホスティングオプションが提供されています。 - 匿名の使用情報を収集するテレメトリー機能が含まれていますが、`.env`設定またはアプリ内からオプトアウト可能です。個人識別情報やチャット内容は収集されません。 - 技術スタックは、viteJS + Reactのフロントエンド、NodeJS expressのサーバーとコレクターで構成されるモノレポです。 > [!NOTE] 要約おわり --- [![AnythingLLM logo](https://github.com/Mintplex-Labs/anything-llm/raw/master/images/wordmark.png?raw=true)](https://anythingllm.com/) [![Mintplex-Labs%2Fanything-llm | Trendshift](https://camo.githubusercontent.com/e604bf991c6af227daebda0d459bbf6d33ec78b3da130185e784f2f8fc6a7eeb/68747470733a2f2f7472656e6473686966742e696f2f6170692f62616467652f7265706f7369746f726965732f32343135)](https://trendshift.io/repositories/2415) **AnythingLLM:** あなたが探していたオールインワンAIアプリ。 ドキュメントとチャットし、AIエージェントを使用し、高度にカスタマイズ可能で、複数ユーザー対応、面倒な設定は不要です。 | | [ドキュメント](https://docs.anythingllm.com/) | [ホストされたインスタンス](https://my.mintplexlabs.com/aio-checkout?product=anythingllm) [English](https://github.com/Mintplex-Labs/anything-llm/blob/master/README.md) · [简体中文](https://github.com/Mintplex-Labs/anything-llm/blob/master/locales/README.zh-CN.md) · **日本語** 👉 デスクトップ用AnythingLLM(Mac、Windows、Linux対応)! [今すぐダウンロード](https://anythingllm.com/download) これは、任意のドキュメント、リソース、またはコンテンツの断片を、チャット中にLLMが参照として使用できるコンテキストに変換できるフルスタックアプリケーションです。このアプリケーションを使用すると、使用するLLMまたはベクトルデータベースを選択し、マルチユーザー管理と権限をサポートできます。 [![チャット](https://private-user-images.githubusercontent.com/16845892/294273127-cfc5f47c-bd91-4067-986c-f3f49621a859.gif?jwt=eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3NzA2MDYwMjEsIm5iZiI6MTc3MDYwNTcyMSwicGF0aCI6Ii8xNjg0NTg5Mi8yOTQyNzMxMjctY2ZjNWY0N2MtYmQ5MS00MDY3LTk4NmMtZjNmNDk2MjFhODU5LmdpZj9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNjAyMDklMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjYwMjA5VDAyNTUyMVomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPWU1YWYzYWFmMjMwMjA0YjkwZWQ4OTdlYmUwMTI0NWJiYmEzMTA5NDNmZTUzMTJiNjk1NDRlMmQ2N2IxYjU4Y2MmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0In0.2w0Nvd7VF58p7QN_p3up6smf6W8xNeHmPL0fFGql_34)](https://private-user-images.githubusercontent.com/16845892/294273127-cfc5f47c-bd91-4067-986c-f3f49621a859.gif?jwt=eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3NzA2MDYwMjEsIm5iZiI6MTc3MDYwNTcyMSwicGF0aCI6Ii8xNjg0NTg5Mi8yOTQyNzMxMjctY2ZjNWY0N2MtYmQ5MS00MDY3LTk4NmMtZjNmNDk2MjFhODU5LmdpZj9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNjAyMDklMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjYwMjA5VDAyNTUyMVomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPWU1YWYzYWFmMjMwMjA0YjkwZWQ4OTdlYmUwMTI0NWJiYmEzMTA5NDNmZTUzMTJiNjk1NDRlMmQ2N2IxYjU4Y2MmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0In0.2w0Nvd7VF58p7QN_p3up6smf6W8xNeHmPL0fFGql_34) デモを見る! [![ビデオを見る](https://github.com/Mintplex-Labs/anything-llm/raw/master/images/youtube.png)](https://youtu.be/f95rGD9trL0) ### 製品概要 AnythingLLMは、市販のLLMや人気のあるオープンソースLLM、およびベクトルDBソリューションを使用して、妥協のないプライベートChatGPTを構築できるフルスタックアプリケーションです。ローカルで実行することも、リモートでホストすることもでき、提供されたドキュメントと知的にチャットできます。 AnythingLLMは、ドキュメントを `ワークスペース` と呼ばれるオブジェクトに分割します。ワークスペースはスレッドのように機能しますが、ドキュメントのコンテナ化が追加されています。ワークスペースはドキュメントを共有できますが、互いに通信することはないため、各ワークスペースのコンテキストをクリーンに保つことができます。 ## AnythingLLMのいくつかのクールな機能 - **マルチユーザーインスタンスのサポートと権限付与** - ワークスペース内のエージェント(ウェブを閲覧、コードを実行など) - [ウェブサイト用のカスタム埋め込み可能なチャットウィジェット](https://github.com/Mintplex-Labs/anythingllm-embed/blob/main/README.md) - 複数のドキュメントタイプのサポート(PDF、TXT、DOCXなど) - シンプルなUIからベクトルデータベース内のドキュメントを管理 - 2つのチャットモード `会話` と `クエリ` 。会話は以前の質問と修正を保持します。クエリはドキュメントに対するシンプルなQAです - チャット中の引用 - 100%クラウドデプロイメント対応。 - 「独自のLLMを持参」モデル。 - 大規模なドキュメントを管理するための非常に効率的なコスト削減策。巨大なドキュメントやトランスクリプトを埋め込むために一度以上支払うことはありません。他のドキュメントチャットボットソリューションよりも90%コスト効率が良いです。 - カスタム統合のための完全な開発者API! ### サポートされているLLM、埋め込みモデル、音声モデル、およびベクトルデータベース **言語学習モデル:** - [llama.cpp互換の任意のオープンソースモデル](https://github.com/Mintplex-Labs/anything-llm/blob/master/server/storage/models/README.md#text-generation-llm-selection) - [OpenAI](https://openai.com/) - [OpenAI (汎用)](https://openai.com/) - [Azure OpenAI](https://azure.microsoft.com/en-us/products/ai-services/openai-service) - [Anthropic](https://www.anthropic.com/) - [Google Gemini Pro](https://ai.google.dev/) - [Hugging Face (チャットモデル)](https://huggingface.co/) - [Ollama (チャットモデル)](https://ollama.ai/) - [LM Studio (すべてのモデル)](https://lmstudio.ai/) - [LocalAi (すべてのモデル)](https://localai.io/) - [Together AI (チャットモデル)](https://www.together.ai/) - [Fireworks AI (チャットモデル)](https://fireworks.ai/) - [Perplexity (チャットモデル)](https://www.perplexity.ai/) - [OpenRouter (チャットモデル)](https://openrouter.ai/) - [Novita AI (チャットモデル)](https://novita.ai/model-api/product/llm-api?utm_source=github_anything-llm&utm_medium=github_readme&utm_campaign=link) - [Mistral](https://mistral.ai/) - [Groq](https://groq.com/) - [Cohere](https://cohere.com/) - [KoboldCPP](https://github.com/LostRuins/koboldcpp) - [xAI](https://x.ai/) - [Z.AI (チャットモデル)](https://z.ai/model-api) - [PPIO](https://ppinfra.com/?utm_source=github_anything-llm) - [CometAPI (チャットモデル)](https://api.cometapi.com/) - [Docker Model Runner](https://docs.docker.com/ai/model-runner/) - [PrivateModeAI (chat models)](https://privatemode.ai/) - [SambaNova Cloud (chat models)](https://cloud.sambanova.ai/) **埋め込みモデル:** - [AnythingLLMネイティブ埋め込み](https://github.com/Mintplex-Labs/anything-llm/blob/master/server/storage/models/README.md) (デフォルト) - [OpenAI](https://openai.com/) - [Azure OpenAI](https://azure.microsoft.com/en-us/products/ai-services/openai-service) - [LocalAi (すべて)](https://localai.io/) - [Ollama (すべて)](https://ollama.ai/) - [LM Studio (すべて)](https://lmstudio.ai/) - [Cohere](https://cohere.com/) **音声変換モデル:** - [AnythingLLM内蔵](https://github.com/Mintplex-Labs/anything-llm/tree/master/server/storage/models#audiovideo-transcription) (デフォルト) - [OpenAI](https://openai.com/) **TTS(テキストから音声へ)サポート:** - ネイティブブラウザ内蔵(デフォルト) - [OpenAI TTS](https://platform.openai.com/docs/guides/text-to-speech/voice-options) - [ElevenLabs](https://elevenlabs.io/) **STT(音声からテキストへ)サポート:** - ネイティブブラウザ内蔵(デフォルト) **ベクトルデータベース:** - [LanceDB](https://github.com/lancedb/lancedb) (デフォルト) - [PGVector](https://github.com/pgvector/pgvector) - [Astra DB](https://www.datastax.com/products/datastax-astra) - [Pinecone](https://pinecone.io/) - [Chroma](https://trychroma.com/) - [Weaviate](https://weaviate.io/) - [QDrant](https://qdrant.tech/) - [Milvus](https://milvus.io/) - [Zilliz](https://zilliz.com/) ### 技術概要 このモノレポは、主に3つのセクションで構成されています: - `frontend`: LLMが使用できるすべてのコンテンツを簡単に作成および管理できるviteJS + Reactフロントエンド。 - `server`: すべてのインタラクションを処理し、すべてのベクトルDB管理およびLLMインタラクションを行うNodeJS expressサーバー。 - `collector`: UIからドキュメントを処理および解析するNodeJS expressサーバー。 - `docker`: Dockerの指示およびビルドプロセス + ソースからのビルド情報。 - `embed`: [埋め込みウィジェット](https://github.com/Mintplex-Labs/anything-llm/blob/master/embed/README.md) の生成に特化したコード。 ## 🛳 セルフホスティング Mintplex Labsおよびコミュニティは、AnythingLLMをローカルで実行できる多数のデプロイメント方法、スクリプト、テンプレートを維持しています。以下の表を参照して、お好みの環境でのデプロイ方法を読むか、自動デプロイを行ってください。 | Docker | AWS | GCP | Digital Ocean | Render.com | | --- | --- | --- | --- | --- | | [![Docker上でデプロイ](https://github.com/Mintplex-Labs/anything-llm/raw/master/locales/images/deployBtns/docker.png)](https://github.com/Mintplex-Labs/anything-llm/blob/master/locales/docker/HOW_TO_USE_DOCKER.md) | [![AWS上でデプロイ](https://github.com/Mintplex-Labs/anything-llm/raw/master/locales/images/deployBtns/aws.png)](https://github.com/Mintplex-Labs/anything-llm/blob/master/locales/cloud-deployments/aws/cloudformation/DEPLOY.md) | [![GCP上でデプロイ](https://camo.githubusercontent.com/100643d40efad79c49290c9c27d866ab16727dabd748184cb5902a42dd0392fd/68747470733a2f2f6465706c6f792e636c6f75642e72756e2f627574746f6e2e737667)](https://github.com/Mintplex-Labs/anything-llm/blob/master/locales/cloud-deployments/gcp/deployment/DEPLOY.md) | [![DigitalOcean上でデプロイ](https://camo.githubusercontent.com/1959f5da42c67ccef3538861164e5d4bb24c70a9920a996eedb4ce5c4c2a3946/68747470733a2f2f7777772e6465706c6f79746f646f2e636f6d2f646f2d62746e2d626c75652e737667)](https://github.com/Mintplex-Labs/anything-llm/blob/master/locales/cloud-deployments/digitalocean/terraform/DEPLOY.md) | [![Render.com上でデプロイ](https://camo.githubusercontent.com/c3053e93bc9f0a2cd84050a5ff9f07cc5e639621a72e50dce48781f4a38f10e2/68747470733a2f2f72656e6465722e636f6d2f696d616765732f6465706c6f792d746f2d72656e6465722d627574746f6e2e737667)](https://render.com/deploy?repo=https://github.com/Mintplex-Labs/anything-llm&branch=render) | | Railway | | --- | | [![Railway上でデプロイ](https://camo.githubusercontent.com/4976251d89450afd636b68329bdfa574e8ab8801835452f7d639bba48e46a5e6/68747470733a2f2f7261696c7761792e6170702f627574746f6e2e737667)](https://railway.app/template/HNSCS1?referralCode=WFgJkn) | [Dockerを使用せずに本番環境のAnythingLLMインスタンスを設定する →](https://github.com/Mintplex-Labs/anything-llm/blob/master/BARE_METAL.md) ## 開発環境のセットアップ方法 - `yarn setup` 各アプリケーションセクションに必要な`.env` ファイルを入力します(リポジトリのルートから)。 - 次に進む前にこれらを入力してください。 `server/.env.development` が入力されていないと正しく動作しません。 - `yarn dev:server` ローカルでサーバーを起動します(リポジトリのルートから)。 - `yarn dev:frontend` ローカルでフロントエンドを起動します(リポジトリのルートから)。 - `yarn dev:collector` ドキュメントコレクターを実行します(リポジトリのルートから)。 [ドキュメントについて学ぶ](https://github.com/Mintplex-Labs/anything-llm/blob/master/server/storage/documents/DOCUMENTS.md) [ベクトルキャッシュについて学ぶ](https://github.com/Mintplex-Labs/anything-llm/blob/master/server/storage/vector-cache/VECTOR_CACHE.md) ## 貢献する方法 - issueを作成する - `<issue number>-<short name>` の形式のブランチ名でPRを作成する - マージしましょう ## テレメトリーとプライバシー Mintplex Labs Inc.によって開発されたAnythingLLMには、匿名の使用情報を収集するテレメトリー機能が含まれています。 AnythingLLMのテレメトリーとプライバシーについての詳細 ### なぜ? この情報を使用して、AnythingLLMの使用方法を理解し、新機能とバグ修正の優先順位を決定し、AnythingLLMのパフォーマンスと安定性を向上させるのに役立てます。 ### オプトアウト サーバーまたはdockerの.env設定で `DISABLE_TELEMETRY` を「true」に設定して、テレメトリーからオプトアウトします。アプリ内でも、サイドバー > `プライバシー` に移動してテレメトリーを無効にすることができます。 ### 明示的に追跡するもの 製品およびロードマップの意思決定に役立つ使用詳細のみを追跡します。具体的には: - インストールのタイプ(Dockerまたはデスクトップ) - ドキュメントが追加または削除されたとき。ドキュメントについての情報はありません。イベントが発生したことのみを知ります。これにより、使用状況を把握できます。 - 使用中のベクトルデータベースのタイプ。どのベクトルデータベースプロバイダーが最も使用されているかを知り、更新があったときに優先して変更を行います。 - 使用中のLLMのタイプ。最も人気のある選択肢を知り、更新があったときに優先して変更を行います。 - チャットが送信された。これは最も一般的な「イベント」であり、すべてのインストールでのこのプロジェクトの日常的な「アクティビティ」についてのアイデアを提供します。再び、イベントのみが送信され、チャット自体の性質や内容に関する情報はありません。 これらの主張を検証するには、 `Telemetry.sendTelemetry` が呼び出されるすべての場所を見つけてください。また、これらのイベントは出力ログに書き込まれるため、送信された具体的なデータも確認できます。IPアドレスやその他の識別情報は収集されません。テレメトリープロバイダーは [PostHog](https://posthog.com/) です。 \[ソースコード内のすべてのテレメトリーイベントを表示\]([https://github.com/search?q=repo%3AMintplex-Labs%2Fanything-llm%20.sendTelemetry(&type=code)](https://github.com/search?q=repo%3AMintplex-Labs%2Fanything-llm%20.sendTelemetry\(&type=code\)) ## 🔗 その他の製品 - **[VectorAdmin](https://github.com/mintplex-labs/vector-admin)** :ベクトルデータベースを管理するためのオールインワンGUIおよびツールスイート。 - **[OpenAI Assistant Swarm](https://github.com/Mintplex-Labs/openai-assistant-swarm)** :単一のエージェントから指揮できるOpenAIアシスタントの軍隊に、ライブラリ全体を変換します。 --- Copyright © 2025 [Mintplex Labs](https://github.com/mintplex-labs) 。 このプロジェクトは [MIT](https://github.com/Mintplex-Labs/anything-llm/blob/master/LICENSE) ライセンスの下でライセンスされています。