1. 打包 Conda 環境:conda env export 與 conda pack 教學

    打包 Conda 環境:conda env export 與 conda pack 教學

    2025/03/27 Python

  2. Git Submodule 進階教學:模組化管理外部依賴

    Git Submodule 進階教學:模組化管理外部依賴 前言 Git submodule 的主要優點在於 模組化管理外部依賴,既保有獨立版本控制,也能在主專案中統一追蹤特定版本,提升專案維護的靈活性與穩定性。

    2025/03/26 Git

  3. 如何在 Linux 讓 Ollama 服務允許遠端設備存取

    如何在 Linux 讓 Ollama 服務允許遠端設備存取 前言 Ollama 預設僅允許本機存取 (127.0.0.1),如果你希望讓遠端設備也能連線到 Ollama 服務,就需要修改 systemd 設定,讓其監聽 0.0.0.0:11434。

    2025/02/22 Linux

  4. Linux 安裝 NVIDIA GPU 驅動完整教學

    本篇教學將完整介紹 如何在 Linux 上安裝 NVIDIA 驅動,確保你的系統能夠順利偵測並使用 GPU,以便高效進行 AI 訓練、科學運算或圖形處理等工作。

    2025/02/20 Linux

  5. 使用 ONNX-MLIR 優化 ONNX 模型並在 C++ 中進行推論

    前言 隨著人工智慧和機器學習應用的快速發展,越來越多的框架和工具支持將訓練好的模型進行優化並部署在不同的硬體環境中。ONNX-MLIR 是其中一個專門用於 ONNX 模型的優化和編譯工具,它可以將 ONNX 格式的機器學習模型轉換為高度優化的可執行文件(如 .so 或 .dll 動態庫)。這樣的轉換使得模型可以在目標硬體上以較高的效率運行,並且利用 LLVM 和 MLIR 的優化功能,進一步減少了運行時的延遲和計算資源的消耗。

    2024/11/16 AI

  6. ONNX-MLIR 與 TVM:機器學習編譯器的比較與分析

    前言 在AI模型的部署中,如何高效地編譯與優化模型以便在不同硬體上進行推理是近年來熱門的話題。尤其是如何將神經網路模型利用 GPU、NPU、TPU 等加速器高效運算。其中 ONNX-MLIR 和 TVM 是兩個在此領域備受矚目的工具,儘管它們有一些相似之處,但在設計目標、應用場景和優化能力上也存在顯著差異。本篇文章將深入比較 ONNX-MLIR 和 TVM,幫助讀者更好地理解它們的特性及應用場景。

    2024/11/15 AI

  7. 使用 ONNX MLIR 優化深度學習模型的運作效率

    前言 隨著深度學習模型的應用日益普及,如何有效地在資源受限的設備上運行這些模型成為了一個重要的課題。ONNX(Open Neural Network Exchange)作為一種開源的神經網絡模型交換格式,逐漸被廣泛採用,其標準化的格式使得各類深度學習框架能夠互相兼容與共享。然而,儘管 ONNX Runtime 提供了一個相對簡便的方法來部署 ONNX 模型,其體積和運行時依賴性可能對某些運算資源有限的硬體系統造成挑戰。

    2024/11/14 AI

  8. 從入門到精通:新手友善的AI編譯器介紹

    前言 隨著人工智慧(AI)技術的迅速發展,AI 模型的應用場景越來越多樣化,這也導致對硬體性能和計算效率的需求日益增加。在這樣的背景下,AI 編譯器的概念逐漸受到重視。AI 編譯器的出現,為如何更有效率地運行 AI 模型提供了一種嶄新的解決方案。本篇文章將帶您了解 AI 編譯器的基本原理與設計,並探討其重要性以及與傳統編譯器的不同之處。

    2024/11/13 AI