1775014921
2026-03-31 23:00:00
ローカル コンピュータ上で大規模な言語モデルを操作するためのランタイム システムである Ollama が、Apple のオープン ソースのサポートを導入しました MLX 機械学習のフレームワーク。さらに、Ollama 氏は、キャッシュ パフォーマンスが向上し、Nvidia の NVFP4 モデル圧縮用の形式であり、特定のモデルでのメモリ使用効率が大幅に向上します。
これらの開発を組み合わせると、Apple Silicon チップ (M1 以降) を搭載した Mac のパフォーマンスが大幅に向上することが期待できます。また、ローカル モデルが外部の研究者や愛好家コミュニティではこれまでにない形で勢いを増し始めているため、これ以上のタイミングはありません。
OpenClaw の最近の驚異的な成功 – 30 万人以上のスターを獲得するまでの道のりを駆け抜けた GitHub 上で、モルトブックのような実験で見出しを飾り、中国で夢中になった 特に—多くの人が自分のマシン上でモデルを実行して実験しています。
開発者がレート制限や、Claude Code や ChatGPT Codex などのツールの最上位サブスクリプションの高額なコストに不満を抱く中、ローカル コーディング モデルの実験が加熱しています。 (Ollama は最近、Visual Studio Code の統合も拡張しました。)
新しいサポートはプレビュー (Ollama 0.19) で利用可能で、現在 1 つのモデルのみをサポートしています。 Alibaba の Qwen3.5 の 350 億パラメータのバリアント。ハードウェア要件は、通常のユーザーの基準からすると厳しいものです。によると、ユーザーには Apple Silicon を搭載した Mac が必要なのは確かですが、少なくとも 32GB の RAM も必要です。 オラマさんの 発表。
#Ollama #の #MLX #サポートによりMac #でのローカル #モデルの実行が高速化されます
