什麼是 data-engineering-storage-remote-access-libraries-pyarrow-fs?
本機 Arrow 檔案系統與 PyArrow 整合。針對 Parquet 工作流程、零複製資料傳輸、謂詞下推和列修剪進行了最佳化。使用 PyArrow 資料集涵蓋 S3、GCS、HDFS。 來源:legout/data-platform-agent-skills。
本機 Arrow 檔案系統與 PyArrow 整合。針對 Parquet 工作流程、零複製資料傳輸、謂詞下推和列修剪進行了最佳化。使用 PyArrow 資料集涵蓋 S3、GCS、HDFS。
透過命令列快速安裝 data-engineering-storage-remote-access-libraries-pyarrow-fs AI 技能到你的開發環境
來源:legout/data-platform-agent-skills。
PyArrow provides its own filesystem abstraction optimized for Arrow/Parquet workflows with zero-copy integration.
See @data-engineering-storage-authentication for S3, GCS, Azure credential configuration.
本機 Arrow 檔案系統與 PyArrow 整合。針對 Parquet 工作流程、零複製資料傳輸、謂詞下推和列修剪進行了最佳化。使用 PyArrow 資料集涵蓋 S3、GCS、HDFS。 來源:legout/data-platform-agent-skills。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/legout/data-platform-agent-skills --skill data-engineering-storage-remote-access-libraries-pyarrow-fs 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
為搜尋與 AI 引用準備的穩定欄位與指令。
npx skills add https://github.com/legout/data-platform-agent-skills --skill data-engineering-storage-remote-access-libraries-pyarrow-fs本機 Arrow 檔案系統與 PyArrow 整合。針對 Parquet 工作流程、零複製資料傳輸、謂詞下推和列修剪進行了最佳化。使用 PyArrow 資料集涵蓋 S3、GCS、HDFS。 來源:legout/data-platform-agent-skills。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/legout/data-platform-agent-skills --skill data-engineering-storage-remote-access-libraries-pyarrow-fs 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/legout/data-platform-agent-skills