狂刷20个网站才能跟上AI日更?我给自己写了个新闻站,现在每天省2小时
先说个扎心的事
你有没有这种感觉:技术圈的"信息差",比代码里的 bug 还难追。
周一:OpenAI 发新模型
周二:Google 跟了个论文
周三:前端又出新框架
周四:K8s 爆了个漏洞
周五:arXiv 上 100 篇新论文…
我是做技术的,按理说应该拥抱变化。但每天打开浏览器,20 多个标签页挨个刷——Hacker News、InfoQ、arXiv、美团技术、OpenAI 博客…刷完一上午没了,代码一行没写。
最崩溃的是:刷完发现,其实没啥值得看的。
时间被碎片化,注意力被稀释,真正重要的文章却淹没在信息流里。
于是,我给自己写了个"信息过滤器"
我一直在想:能不能有个地方,把我关注的所有技术源聚合到一起,按我关心的领域分类,每天自动更新,打开就看?
市面上 RSS 阅读器很多,但要么太 geek,要么太丑,要么要付费。作为一个会写代码的人——那就自己写一个呗。
于是有了这个:https://news.kyriewen.cn
名字很直白:极客热榜。
PC 端
移动端
它解决了我的三个核心痛点
1. 不用再刷 20 个网站,一个就够了
我把这些源全接进去了:
| 领域 | 源列表(节选) |
|---|---|
| AI | OpenAI、Google AI、DeepMind、arXiv、Hugging Face、Lil‘Log |
| 前端 | JavaScript Weekly、web.dev、MDN、Smashing Magazine |
| 后端 | 美团技术、Thoughtworks、Martin Fowler、AWS 架构博客 |
| 云原生 | Kubernetes、CNCF、Docker、Istio |
| 区块链 | ChainGPT、Ethereum、链闻 |
| 视频 | Fireship、3Blue1Brown、尚硅谷 |
| 论文 | arXiv AI/ML/CV/NLP 每日更新 |
加起来 50+ 个源,每小时自动抓取。我只需要打开这一个页面,就能看完所有。
2. 分类清楚,一眼找到想看的
我一开始设了"程序员圈"“AI圈”,但发现太模糊。后来改成:
【全部】|【AI】|【前端】|【后端】|【云原生】|【区块链】|【其他】
每个分类互斥,想看啥点啥。还能按 最新 或 最热 排序。
3. 无广告、无登录、无套路
我不想要用户数据,也不想卖广告。页面极简,手机电脑都能用。打开即读,读完即走。
有个反常识的设计:我不存全文
你可能注意到,每个新闻只有标题、摘要和来源链接,点击就跳到原文。
为什么?
- 版权合规:内容是人家的,流量还给人家人家
- 存储成本:存全文数据量会爆炸
- 尊重阅读习惯:好文章就该去原网站看(顺便给人家贡献个 PV)
我只做"信息的搬运工",不做"内容的二道贩子"。
聊聊技术:一个人 + AI
技术栈极其朴素:
- 后端:Python Flask
- 数据库:SQLite(你没看错,到现在还撑得住)
- 爬虫:feedparser + requests
- 调度:GitHub Actions(每天自动跑)
- 前端:Vue 3
- 部署:Render(后端) + Vercel(前端)
全免费套餐,0 成本运行。
数据量现在大概 2 万多条,SQLite 依然坚挺。分类靠关键词规则 + 一点点手工调优。
如果你也想用
- 📱 手机电脑都适配
- 🔥 每天更新
- 🆓 完全免费
- 📝 无登录
如果你想看某个技术源但里面没有,可以在评论区留言,我尽量加。
最后分享一个想法
很多人问:你做这个图啥?又不赚钱。
其实很简单:我解决了我自己的问题,顺便分享给有同样问题的人。
技术圈从来不缺信息,缺的是好用的信息过滤器。如果你也有类似的需求,欢迎来用。如果顺手点个收藏,我会更有动力维护下去。
代码已开源,想自己部署或提 PR 的可以看这里:
👉 GitHub 仓库地址
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)