1. Nuitka 打包工具教學:把 Python 程式變成獨立的執行檔

    前言 對許多 Python 新手來講,一直都有個疑問──「我寫好的程式怎麼才能讓沒安裝 Python 的朋友也能直接執行呢?」 不像 C++ 可以編譯成 exe 或是 JS 直接在瀏覽器執行,Python 程式必須靠 Python 解釋器來運行,而大部分作業系統預設都沒有安裝 Python。這時候,打包工具就登場啦!

    2025/04/06 Python

  2. Python 環境建置與套件管理工具:pip、conda、mamba、uv 詳細比較

    前言

    2025/03/31 Python

  3. 打包 Conda 環境:conda env export 與 conda pack 教學

    前言

    2025/03/27 Python

  4. Git Submodule 進階教學:模組化管理外部依賴

    Git Submodule 進階教學:模組化管理外部依賴 前言 Git submodule 的主要優點在於 模組化管理外部依賴,既保有獨立版本控制,也能在主專案中統一追蹤特定版本,提升專案維護的靈活性與穩定性。

    2025/03/26 Git

  5. 如何在 Linux 讓 Ollama 服務允許遠端設備存取

    如何在 Linux 讓 Ollama 服務允許遠端設備存取 前言 Ollama 預設僅允許本機存取 (127.0.0.1),如果你希望讓遠端設備也能連線到 Ollama 服務,就需要修改 systemd 設定,讓其監聽 0.0.0.0:11434。

    2025/02/22 Linux

  6. Linux 安裝 NVIDIA GPU 驅動完整教學

    本篇教學將完整介紹 如何在 Linux 上安裝 NVIDIA 驅動,確保你的系統能夠順利偵測並使用 GPU,以便高效進行 AI 訓練、科學運算或圖形處理等工作。

    2025/02/20 Linux

  7. 使用 ONNX-MLIR 優化 ONNX 模型並在 C++ 中進行推論

    前言 隨著人工智慧和機器學習應用的快速發展,越來越多的框架和工具支持將訓練好的模型進行優化並部署在不同的硬體環境中。ONNX-MLIR 是其中一個專門用於 ONNX 模型的優化和編譯工具,它可以將 ONNX 格式的機器學習模型轉換為高度優化的可執行文件(如 .so 或 .dll 動態庫)。這樣的轉換使得模型可以在目標硬體上以較高的效率運行,並且利用 LLVM 和 MLIR 的優化功能,進一步減少了運行時的延遲和計算資源的消耗。

    2024/11/16 AI

  8. ONNX-MLIR 與 TVM:機器學習編譯器的比較與分析

    前言 在AI模型的部署中,如何高效地編譯與優化模型以便在不同硬體上進行推理是近年來熱門的話題。尤其是如何將神經網路模型利用 GPU、NPU、TPU 等加速器高效運算。其中 ONNX-MLIR 和 TVM 是兩個在此領域備受矚目的工具,儘管它們有一些相似之處,但在設計目標、應用場景和優化能力上也存在顯著差異。本篇文章將深入比較 ONNX-MLIR 和 TVM,幫助讀者更好地理解它們的特性及應用場景。

    2024/11/15 AI