前言 在 AWS EC2 機器上開發 AI 應用時,若使用 HuggingFace 模型(例如 intfloat/multilingual-e5-large)搭配 FastAPI,可能會遇到兩個常見錯誤:
前言 在實際開發或部署 Python 應用程式的過程中,我們常常會遇到一個問題 在沒有安裝 Python 的電腦上,該怎麼快速執行我們的程式?
前言 在實務專案開發中,有時我們並不希望自己的 Python 原始碼(.py)被直接查看或輕易地被他人反編譯。Python 提供了多種檔案格式,包括 .py、.pyc、.pyo、.pyw、.pyd 等等,其中只有 .pyd 格式不易被反編譯,因為它本質上是二進位檔案(Windows 平台的 Extension Module),且相較於一般的 Python 程式碼,經過編譯後的 .pyd 檔案還能提供更快的執行速度。
前言 本教學將協助你透過一條網路線,直接將 Jetson Nano Orin 與你的電腦建立「點對點(P2P)」乙太網路連線,並以固定 IP 模式登入裝置,適用於開發測試環境、無 Wi-Fi 的場景。
前言 許多開發者在完成模型訓練後,會面臨如何讓模型在各式平台上穩定運作的問題。本篇教學將以鳶尾花分類器為例,示範如何將 scikit-learn 訓練的模型轉換為 ONNX 格式,並利用 onnxruntime 撰寫一個互動式推論 App,最後透過 Nuitka 將整個應用程式打包成獨立的 EXE 檔案。
前言 對許多 Python 新手來講,一直都有個疑問──「我寫好的程式怎麼才能讓沒安裝 Python 的朋友也能直接執行呢?」 不像 C++ 可以編譯成 exe 或是 JS 直接在瀏覽器執行,Python 程式必須靠 Python 解釋器來運行,而大部分作業系統預設都沒有安裝 Python。這時候,打包工具就登場啦!
前言
前言