2026-04

未分類

llama.cppパラメータ完全リスト(2026年4月最新版)

llama.cpp パラメータ完全リスト(2026年4月最新版)最終更新日: 2026年4月18日対象バージョン: llama.cpp masterブランチ(最新コミットベース)出典: ggml-org/llama.cpp GitHub 公...
未分類

llama.cpp 開発最前線:2026年4月18日時点のアップデートまとめ

llama.cpp 開発最前線:2026年4月18日時点のアップデートまとめはじめにllama.cpp の開発スピードには、目を見張るものがあります。2026年4月15日から18日にかけて、なんと30回を超えるコミットとリリースが行われてお...
未分類

llama.cpp 開発最前線:2026年4月18日時点のアップデートまとめ

未分類

MacとNVIDIA DGX Sparkを組み合わせたLLMワークロードの最適化手法

MacとNVIDIA DGX Sparkを組み合わせたLLMワークロードの最適化手法目次概要アーキテクチャ 1: EXO Framework — PrefillとDecodeの分離(分散推論)アーキテクチャ 2: MacをDGX Spark...
未分類

MacとDGX Sparkを活用したLLMハイブリッド環境構築ガイド

MacとDGX Sparkを活用したLLMハイブリッド環境構築ガイド概要NVIDIA DGX SparkとMac(Mac Studio / MacBook)を組み合わせることで、それぞれの強みを最大限に活かしたハイブリッドなLLM環境を構築...
未分類

Macでのllama.cpp導入完全ガイド:Apple Siliconの性能を最大限に引き出す

Macでのllama.cpp導入完全ガイド:Apple Siliconの性能を最大限に引き出す作成日: 2026年4月18日更新情報: 最新のビルド手法、実行例、および最適化設定を網羅 参照リソース:- Official GitHub: l...
未分類

Qwen3.6 の新機能 preserve_thinking について:過去の思考プロセスを保持し、エージェントの性能を最大化する

Qwen3.6 の新機能 preserve_thinking について:過去の思考プロセスを保持し、エージェントの性能を最大化する概要Qwen3.6(主に Qwen3.6-Plus や Qwen3.6-35B-A3B)で導入された新パラメー...
未分類

llama.cpp:ローカルAI推論の革命engine

llama.cpp:ローカルAI推論の革命engine2026年4月18日 更新LLM(大規模言語モデル)のローカル推論を革命しているオープンソースプロジェクト、llama.cppについて最新情報をまとめます。概要llama.cppはGeo...