laravel:data-chunking-large-datasets
✓使用 chunk()、chunkById()、lazy() 和cursor() 高效處理大型數據集,以減少內存消耗並提高性能
SKILL.md
Process large datasets efficiently by breaking them into manageable chunks to reduce memory consumption and improve performance.
| Method | Use Case | Memory Usage | Notes |
| chunk() | General processing | Moderate | May skip/duplicate if modifying filter columns | | chunkById() | Updates during iteration | Moderate | Safer for modifications | | lazy() | Large result processing | Low | Returns LazyCollection | | cursor() | Simple forward iteration | Lowest | Returns Generator |
使用 chunk()、chunkById()、lazy() 和cursor() 高效處理大型數據集,以減少內存消耗並提高性能 來源:jpcaparas/superpowers-laravel。
可引用資訊
為搜尋與 AI 引用準備的穩定欄位與指令。
- 安裝指令
npx skills add https://github.com/jpcaparas/superpowers-laravel --skill laravel:data-chunking-large-datasets- 分類
- {}資料分析
- 認證
- ✓
- 收錄時間
- 2026-02-10
- 更新時間
- 2026-02-18
快速解答
什麼是 laravel:data-chunking-large-datasets?
使用 chunk()、chunkById()、lazy() 和cursor() 高效處理大型數據集,以減少內存消耗並提高性能 來源:jpcaparas/superpowers-laravel。
如何安裝 laravel:data-chunking-large-datasets?
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/jpcaparas/superpowers-laravel --skill laravel:data-chunking-large-datasets 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用
這個 Skill 的原始碼在哪?
https://github.com/jpcaparas/superpowers-laravel