[LLM] Apple SiliconでMLXを使ってローカルLLM環境を構築する
Apple Silicon MacBook Pro M5 Pro環境でMLXとQwen 3.6モデルを使ってローカルLLM環境を構築し、エージェントフレームワーク研究のための事前準備を整理する。
Apple Silicon MacBook Pro M5 Pro環境でMLXとQwen 3.6モデルを使ってローカルLLM環境を構築し、エージェントフレームワーク研究のための事前準備を整理する。
RAGにおける検索品質を向上させるHyDE(Hypothetical Document Embeddings)手法を整理する。
LangChainのLCEL、プロンプトテンプレート、メッセージクラス、MessagesPlaceholder、RunnableGeneratorを整理する。
Ollama Pythonライブラリでリモートサーバーに接続し、generate、chat、LangChain連携まで使用する方法を整理する。
OLLAMA_HOST環境変数とWindowsファイアウォールを設定して、同じネットワーク上の他のデバイスからローカルLLMにアクセスする方法をまとめる。
Windows 11にOllamaをインストールし、Qwen3:8Bモデルをローカルで実行するまでの全手順をまとめる。