什么是 data-engineering-storage-remote-access-integrations-pyarrow?
将 PyArrow 的 parquet 和数据集模块与远程文件系统(S3、GCS、Azure)结合使用。涵盖本机文件系统、fsspec 桥和 obstore 包装器。 来源:legout/data-platform-agent-skills。
将 PyArrow 的 parquet 和数据集模块与远程文件系统(S3、GCS、Azure)结合使用。涵盖本机文件系统、fsspec 桥和 obstore 包装器。
通过命令行快速安装 data-engineering-storage-remote-access-integrations-pyarrow AI 技能到你的开发环境
来源:legout/data-platform-agent-skills。
PyArrow's parquet and dataset modules work seamlessly with cloud storage through its native filesystem abstraction and fsspec compatibility.
Use obstore's high-performance fsspec wrapper for concurrent operations:
See @data-engineering-storage-remote-access/patterns.md for advanced patterns including:
将 PyArrow 的 parquet 和数据集模块与远程文件系统(S3、GCS、Azure)结合使用。涵盖本机文件系统、fsspec 桥和 obstore 包装器。 来源:legout/data-platform-agent-skills。
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/legout/data-platform-agent-skills --skill data-engineering-storage-remote-access-integrations-pyarrow将 PyArrow 的 parquet 和数据集模块与远程文件系统(S3、GCS、Azure)结合使用。涵盖本机文件系统、fsspec 桥和 obstore 包装器。 来源:legout/data-platform-agent-skills。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/legout/data-platform-agent-skills --skill data-engineering-storage-remote-access-integrations-pyarrow 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/legout/data-platform-agent-skills