什么是 data-engineering-storage-remote-access-libraries-pyarrow-fs?
本机 Arrow 文件系统与 PyArrow 集成。针对 Parquet 工作流程、零复制数据传输、谓词下推和列修剪进行了优化。使用 PyArrow 数据集涵盖 S3、GCS、HDFS。 来源:legout/data-platform-agent-skills。
本机 Arrow 文件系统与 PyArrow 集成。针对 Parquet 工作流程、零复制数据传输、谓词下推和列修剪进行了优化。使用 PyArrow 数据集涵盖 S3、GCS、HDFS。
通过命令行快速安装 data-engineering-storage-remote-access-libraries-pyarrow-fs AI 技能到你的开发环境
来源:legout/data-platform-agent-skills。
PyArrow provides its own filesystem abstraction optimized for Arrow/Parquet workflows with zero-copy integration.
See @data-engineering-storage-authentication for S3, GCS, Azure credential configuration.
本机 Arrow 文件系统与 PyArrow 集成。针对 Parquet 工作流程、零复制数据传输、谓词下推和列修剪进行了优化。使用 PyArrow 数据集涵盖 S3、GCS、HDFS。 来源:legout/data-platform-agent-skills。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/legout/data-platform-agent-skills --skill data-engineering-storage-remote-access-libraries-pyarrow-fs 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/legout/data-platform-agent-skills --skill data-engineering-storage-remote-access-libraries-pyarrow-fs本机 Arrow 文件系统与 PyArrow 集成。针对 Parquet 工作流程、零复制数据传输、谓词下推和列修剪进行了优化。使用 PyArrow 数据集涵盖 S3、GCS、HDFS。 来源:legout/data-platform-agent-skills。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/legout/data-platform-agent-skills --skill data-engineering-storage-remote-access-libraries-pyarrow-fs 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/legout/data-platform-agent-skills