背景:scrapy启动了多个爬虫,每个爬虫都有读写文件的pipeline。发生了这一问题.

原因:超出了进程同一时间最多可开启的文件数.

解决办法: ulimit -n 2048,将数目提高,mac默认是256,linux是1024,自行体会.

GitHub 加速计划 / li / linux-dash
6
1
下载
A beautiful web dashboard for Linux
最近提交(Master分支:4 个月前 )
186a802e added ecosystem file for PM2 4 年前
5def40a3 Add host customization support for the NodeJS version 4 年前
Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐