AI 写代码写到一半就出轨?你缺的不是更好的提示词,是 Harness
TL;DR:Harness Engineering 是继 Prompt Engineering 和 Context Engineering 之后 AI 开发的第三阶段,通过把架构约束、执行计划、上下文管理机械化,让 AI Agent 可以稳定完成工程级别的任务。入门方法很简单:从一个 CLAUDE.md 文件开始,把你教过 AI 的每一件事都写进去。
TL;DR:Harness Engineering 是继 Prompt Engineering 和 Context Engineering 之后 AI 开发的第三阶段,通过把架构约束、执行计划、上下文管理机械化,让 AI Agent 可以稳定完成工程级别的任务。入门方法很简单:从一个 CLAUDE.md 文件开始,把你教过 AI 的每一件事都写进去。
TL;DR:这是一份完整的 Claude Code 命令速查手册,按使用频率和学习顺序排列。新用户从第一组开始读,老用户直接跳到需要的部分。每个功能说清楚是什么、怎么用、什么时候用。
TL;DR:Block 裁员近半股价飙升,网易跟上——这不是周期性成本压缩,是软件研发生产关系的第一次结构性重组。我们已经有了执行层,正在补齐协调层,还缺组织协议。2027 年,工程师这个职业会分裂成两种,中间层会大幅压缩。
传统计算机视觉(Traditional CV)就像是一门图像的炼金术,你不依赖现在的深度学习(AI),而是纯靠数学和像素的把戏来达成目的。
我们不写大段代码,只聊“这是啥”、“有啥用”、“什么时候用”以及“经典连招”。函数名以最常用的 OpenCV (Python) 为例。
准备好了吗?我们开始发车,直奔入土!
买了台阿里云 ECS 专门跑 OpenClaw(绰号”龙虾”),记录折腾过程。
为什么不跑在本机:本地跑有安全隐患(gateway 只绑 loopback,但本机环境更复杂),而且不能 24 小时开机。ECS 2vCPU / 2GB 内存 / 40GB 磁盘,99 元/年,够用。
为什么接飞书:看到一篇文章讲得很好——飞书作为办公 IM,文档、表格、知识库全是云端结构化数据,全有 API,天然是 Agent 的上下文来源;加上完备的机器人体系,顺理成章成了 OpenClaw 的首选前端。
大模型能力强大,但体积庞大、成本高昂,难以在手机、边缘设备等日常场景中部署。如何在不显著牺牲性能的前提下,让模型变得更小、更快?答案不是从头设计小模型,而是知识蒸馏(Knowledge Distillation)——让大模型把”智慧”传授给小模型。
原文: https://www.kaggle.com/whitepaper-agents
生成式 AI 模型可以通过训练来使用工具,以访问实时信息或建议现实世界中的行动。当模型具备推理、逻辑和外部信息获取能力时,就引出了智能体(agent)的概念——一种超越了独立生成式 AI 模型能力的程序。本文是 Google 发布的智能体白皮书中文整理。
▌核心观点: AI 智能体正迅速成为推动企业数字化转型的关键力量。Gartner 报告显示相关咨询量激增 750%,但市场同时充斥着”代理炒作”。本文整合 Gartner 最新洞察,梳理智能体的定义、价值、风险与部署策略。
深度学习在持续学习场景下有一个鲜为人知的致命缺陷:随着训练推进,网络会逐渐丧失学习新知识的能力——即”可塑性丧失”(Loss of Plasticity)。《自然》杂志发表的这项研究(Dohare et al., 2024)系统性地揭示了这一现象,并提出了”持续反向传播”算法作为解决方案。
大型语言模型(LLMs)已在众多任务中展现出惊人的通用能力。然而,如何让这些强大的模型高效地适应特定领域或动态变化的需求,仍是一个关键挑战。传统的完全微调方法成本高昂、耗时,且容易导致”灾难性遗忘”;而参数高效微调(PEFT)方法(如 LoRA)虽然降低了成本,却往往牺牲了模型的灵活性和技能的可组合性。
想象一下,一个 LLM 能够像经验丰富的专家一样,迅速分析任务需求,并实时调整自身”状态”以最优地解决问题,而不是用一套固定的模式应对所有情况。这正是自适应 LLM 的愿景。Sakana AI 提出的 Transformer² 框架朝着这一方向迈出了重要一步。
AI 正在从工具演变为某种更具实体感的存在。它的预训练知识与有限的对话记忆之间有何关联?它能否摆脱人类反馈的束缚自主进化?如何构建能持续学习和记忆的 AI?
带着这些问题,与 Google Gemini 2.5 Pro Preview 进行了一番深入探讨。
我越来越感觉到,人工智能(AI)正在从一个复杂的工具转变为某种更具实体感的存在,一个正在“到来”而非仅仅执行命令的实体。
AI庞大的预训练知识与其有限的对话记忆之间有何关联?它能否真正“以自己的方式”学习,超越人类反馈的限制?以及,要构建出不仅能获取信息,更能持续学习、记忆和进化的 AI,我们需要什么?
我将这些想法与 AI 进行了一番讨论, 以下是与 Gemini 2.5 Pro Preview 03-25 的对话
带着寻求精神解脱的期望翻开《瓦尔登湖》,阅读之后却发现它与预期存在不小的落差。这是一部充满理想主义色彩的宣言,引发思考,却未必能为深陷”内卷”的现代人提供现实的出路。