今天是实盘记录的第143天。[淘股吧]
期末资产:405395.56元 累计盈亏:35.132% 今日盈亏 1417.97元

相对沪深300超额 27.425%, 相对中证2000超额 13.797%

今天周三,太累了,尤其是现在腰的问题,在外面跑一天,太恐怖了,疼的想哭,呜呜。

就先发下记录。还要筛股票。。。。

说明:
目前实盘展示的是一套量化交易系统。正常每天分别买入和卖出六只股票。偏小市值股票。

我有参加淘股吧实盘比赛,实盘比赛用的系统,就是展示的这个。数据相同。

下面是目前账户截图:


读书笔记部分:

在AI能秒答一切的时代,人的核心竞争力到底是什么?

“人类唯一的护城河是理解”。 近日 AI 顶流名嘴 Andrej Karpathy 在红杉资本 AI 峰会的访谈中反复强调 “You can outsource your thinking, but you can’t outsource your understanding.”

大意是:“你可以外包你的思考,但你不能外包你的理解。”

这句话听起来像鸡汤,但其实非常技术、非常现实。它不是在说AI 不会思考,也不是在安慰人类“总有某种神秘能力不会被替代”。

它真正指出的是:当AI 能帮你写代码、查资料、做计划、生成方案、跑实验之后,人类的价值不再主要来自“亲手做”,而来自“知道自己到底在做什么”。

过去,一个人的竞争力很大程度上来自执行能力。你会写代码,你会做PPT,你会调模型,你会搭系统,你会查文献,这些都很值钱。

但现在,很多执行环节正在快速被AI 商品化。一个不会写前端的人,可以让 AI 生成页面;一个不熟悉某个库的人,可以让 AI 查 API;一个没时间写文档的人,可以让 AI 先起草。原来需要几小时、几天甚至几周的事情,现在可能几分钟就有一个看起来不错的版本。

问题是,“看起来不错”不等于“真的正确”。

Karpathy 说不能外包理解,关键就在这里。AI 可以给你一个答案,但你必须知道这个答案为什么成立。所谓知其然更要知其所以然。

AI 可以给一段代码,但我们必须知道这段代码破坏了什么边界。AI 可以给你十个方案,但你必须知道哪个方案真正解决问题,哪个只是语言上漂亮。

这里的“理解”,不是指背知识点,也不是指能复述概念。理解是一种控制能力。

你知道问题的结构是什么,知道哪些假设不能错,知道系统可能在哪里坏,知道如何验证结果,知道什么时候应该继续优化,什么时候应该推翻重来。

举一个软件工程里的例子。

假设你让AI 写一个订阅系统:用户付款后获得 Pro 权限。AI 很可能会写出这样的逻辑:从 Stripe 支付事件里拿到邮箱,然后根据邮箱查找用户,再给这个用户开通 Pro。

这段逻辑乍看很合理。支付事件里有邮箱,用户表里也有邮箱,匹配上之后开通会员,似乎没什么问题。

但真正理解系统的人会立刻警觉:支付邮箱和登录邮箱一定一样吗?一个用户能不能换邮箱?同一个邮箱会不会关联多个账号?Webhook 会不会重复发送?退款和拒付怎么处理?订阅取消后如何降级?真正稳定的身份标识应该是 email,还是 user_id?

这些问题不是“写代码”的问题,而是“理解系统”的问题。AI 可以生成代码,但人必须理解 identity、权限、幂等性、状态一致性和安全边界。否则,生成得越快,错得越快。

这就是AI 时代最危险的地方:以前你不懂,往往做不出来;现在你不懂,也能做出一个看起来能跑的东西。

无知不再表现为“没有产出”,而表现为“产出很多,但不知道哪里错”。

因此,Karpathy 的这句话,其实是在重新划分认知劳动。AI 很擅长承担局部思考:列方案、写初稿、生成代码、总结材料、搜索候选解。它能把很多低层执行和中层推理都变得便宜。

但人类仍然要负责更高层的事情:定义问题,设定目标,判断方案,识别风险,建立评价标准,并最终承担责任。

很多人误解AI 的方式在于混淆了其认知工作的职能范畴,把它当成了“替我理解”的机器。实际上,更准确的用法是把它当成“放大并且落实我已有理解”的机器。

如果你对一个领域的理解很浅,AI 会放大你的浅。它会顺着你的错误问题,给出一堆看似完整的错误答案。

而如果你对一个系统的理解很深,AI 会放大你的深。你能让它拆任务、补细节、找反例、跑验证、写测试、生成多个候选方案,然后你用自己的判断力筛选和纠偏。

AI 并不会自动让一个不理解的人变得理解。它更可能让一个不理解的人更快地产生“我好像理解了”的幻觉。

这件事对软件工作者(因为这里不同类型的认知工作界限是最模糊的,硬件那边看得见摸得着就还好)尤其重要。

过去程序员可能觉得自己的壁垒是会某门语言、会某个框架、记得某些API。现在这些东西的价值在下降,因为 AI 很擅长查文档、补语法、写样板代码。

更重要的能力变成:你是否理解系统的形状?你是否理解数据流?你是否理解抽象边界?你是否知道哪些状态必须一致?你是否知道哪些权限绝不能穿透?你是否知道一段代码在三个月后是否还可维护?

换句话说,API 记忆不是护城河,系统模型才是护城河。

对创业者也是一样。

AI 会让做 demo 变得极其容易。未来每个人都能做出一个看起来像产品的东西。真正困难的不再是“能不能做出来”,而是“该不该做这个”“用户真正的瓶颈在哪里”“这个 workflow 是否值得被重构”“这个产品的核心判断是否正确”。

当执行成本下降后,判断成本反而上升。

因为你有了更强的杠杆。一个错误判断,过去可能只是浪费你一天时间;现在可能会驱动十几个AI agent 并行生成一整套错误系统。杠杆越大,理解越重要。

这也是为什么“人类唯一护城河是理解”这句话不能被理解成反技术、反 AI。恰恰相反,它要求人更深地使用 AI。

不要只问AI:“答案是什么?”

更应该问:“这个问题里的核心变量是什么?哪些假设最脆弱?有没有反例?最小验证实验是什么?如果这个结论错了,最可能错在哪里?我该用什么指标判断它好不好?”

这样的提问不是为了获得一个更漂亮的答案,而是为了建立自己的心智模型(mental model)。

真正的学也应该转向这里。不是让AI 直接替我们写作业、替你写代码、替你下结论,而是让 AI 帮着拆解概念、构造例子、暴露盲点、生成反例、模拟不同观点之间的冲突。

理解的本质,是我们究竟能在没有标准/惯常答案的长尾分布地带(longtail distribution)继续判断。

能压缩一个复杂问题,说明理解了它的结构。能预测条件改变后的结果,说明理解了它的因果关系。能定位系统为什么坏,说明理解了它的运行机制。能从零教给别人,说明不是只记住了表述,而是真的掌握了模型。

这才是AI 时代的核心能力。


所以,Karpathy 那句话最值得深思的是 - 当 AI 给了你无限执行力之后,你有没有足够的理解来驾驭它?

未来很多人的失败,不会是因为不会使用AI,而是因为太会使用 AI,却不知道自己在放大什么。

AI 可以外包很多思考过程,但不能替我们承担理解之后的判断。它可以帮你走得更快,但不能替你决定方向是否正确。

最终,人类的护城河不是比AI 多记几个事实,也不是比 AI 更快写几行代码,而是能否形成准确的世界模型、系统模型和评价模型。

然后,把AI 当成执行和搜索的外骨骼,而不是当成自己的大脑。

==========================================

知乎:大象)

凡是“输入-输出”高度可映射的工作,都会被加速替代。所以我们需要的不是泛泛的“提升创造力”,而是找到AI替代成本最高、且企业愿意为此付费的岗位生态位。
因此就有两个大的方向可以努力。
第一是成为“非标问题的封装者”。
AI擅长解决“定义清晰的问题”,但企业里大量高价值工作,是“问题本身都说不清楚”的。谁能在混沌中把模糊需求封装成可执行方案,谁就卡住了价值链上游。
说白了就是,在你的工作产出里,“定义问题”的时间占比是否超过50%?如果是,那AI替代你的成本就非常高。

第二是成为“AI输出物的二次深加工者”。

AI让内容生产的边际成本趋近于零,但海量平庸内容的泛滥,反而让“高浓度的优质判断”更稀缺。你不可能跟AI比生产速度,但可以在AI生产的半成品上进行“人肉精炼”,提取出真正有意思的东西。