Day 1565
腾讯真的是又当又立啊,一方面炮轰豆包手机随意获取手机内容,另一方面抱着自己的封闭生态疯狂举报封杀任何一个想要获取正常信息内容的第三方应用或者开发者。
腾讯就是中国企业毒瘤,微信/企业微信就是所有app/手机的毒瘤。
封闭也就算了,关键是太难用了,企业微信离飞书大概差了10000个钉钉。
腾讯真的是又当又立啊,一方面炮轰豆包手机随意获取手机内容,另一方面抱着自己的封闭生态疯狂举报封杀任何一个想要获取正常信息内容的第三方应用或者开发者。
腾讯就是中国企业毒瘤,微信/企业微信就是所有app/手机的毒瘤。
封闭也就算了,关键是太难用了,企业微信离飞书大概差了10000个钉钉。
连续出差快三周了,好累啊。
经过这半年,好像稍微习惯了三地跑的局面,没有了一开始的抗拒。
年前还要再去合肥至少两次。
加油。
每次去合肥都会住公司合作的酒店,9月份的时候还比较破,现在翻新了。
上周的房间编程了套房,还有一个大浴缸,看来房间分配也是动态调整的。
就是离公司太远了。
这两天看到了一个在上海高架上,Tesla和坦克300斗气车发生交通事故的视频,这里不说谁对谁错。
最近两年由于工作原因,我常驻苏州和杭州,我自己是不开车的,出门就打车,每个月打车费用大概在三四千,所以我观察到了非常多的司机的驾驶模式。
在苏州和杭州,很多司机最让人讨厌的就是:无效变道,有时候变道我都莫名其妙,比如快到路口了,一个道有一辆车,另一个道没有,他就要变道没有车的那个道上去,其实前面就一辆车,耽误不了几秒钟。还有就是连续变道,最恶心的是变出去再变回来,我就想,当时哪怕高中有这种劲头用在学习上,现在也不会开网约车啊。
其实上海高架的这个事故,最开始就是苏E的无效变道把Tesla挤到导流线上了,Tesla非常愤怒,后面坦克300还要连续变道,只能怪苏E平常开车太随心了。
这里其实有一个很重要的概念,关于如何做决策的,就是成本大法。
做一个决定的时候,去看看自己的隐性成本和显性成本是怎样的,是否收益能够覆盖成本。
比如你每次变道的时候,你的隐性成本是变道可能发生的交通事故(而且事故发生会负全责),收益是可能快了几秒钟,这值得吗?
做事情都得有一个基本的原则,成本大法我觉得就是非常好的一个判断标准。
其实很多时候,我们都会做一些无效动作,有一些无效思考,这其实在增加我们的负效益,如果能识别到无效动作,并且有意识的不断减少,我们就会成长的更快。
头疼。
耳鸣。
连续一周没怎么睡好,每晚都是凌晨2、3点醒来,4、5点再入睡。
脖子难受,也没有一个合适的盲人按摩。
这是出的什么差啊。
本来周四可以回上海的,硬生生拖到了周六。
中年牛马。
看来每一家对HRBP的职责定位都不一样啊。
比如绩效,之前的所有的HRBP只参与评分前的标准对齐和评分后的结果校准,第一评分权还是在业务主管那里。
但是我目前的公司不是这样的,HRBP有20%的评分占比,并且具体分数不会同步给业务主管,而是只反馈给自己的上级。这就相当于一个小探子,弊端不要太多。
还有在员工关怀上,HRBP应该是熄火的,处理团队矛盾的,但现在我竟然看到了其他团队中HRBP在拱火。
更别谈是否做到了:
我记得之前在阿里的时候,有一些比较旧的资料,关于HRBP的原则的:
核心逻辑:HR 工作必须服务于业务目标。
不仅仅是 HR:你首先要像业务员一样思考。如果你不理解业务的盈利模式、获客成本或产品周期,你制定的 HR 政策就是纸上谈兵。
结果验证:评价 HRBP 工作好坏的标准,不是你办了多少场培训,而是业务部门的人效是否提升、关键人才流失率是否下降。
核心逻辑:与业务主管是“平等协作”,而非“命令执行”。
既是战友又是镜子:你既要支持业务主管达成目标,也要敢于指出他在管理上的盲点。
赋能而非替代:你的职责是教会业务主管如何管人,而不是把所有管人的脏活累活都揽到自己身上。
核心逻辑:确保 HR 战略与业务战略高度一致。
上下贯通:当公司要“降本增效”时,HRBP 的招聘策略应从“大规模扩张”转向“核心人才精准猎聘”。
动态调整:业务方向调整了(例如从研发转向销售),HRBP 必须第一时间调整组织架构和考核权重。
核心逻辑:HRBP 是组织底线的守护者。
灰度管理中的红线:业务端往往追求灵活性和效率,有时会突破规则(如无补偿裁员)。HRBP 必须站稳立场,规避法律风险,维护公司的雇主品牌。
程序正义:在绩效、晋升、惩处的决策中,确保过程透明、标准统一,防止部门内部出现“小圈子”文化。
核心逻辑:快速响应业务需求,拒绝流程官僚化。
灵活应变:业务一线瞬息万变。HRBP 要能根据实际情况对公司通用的 HR 政策进行“本地化”改造,而不是死板地回复“公司规定不行”。
主动出击:在业务痛点爆发前(如关键员工有离职苗头、团队士气低落),提前介入预防,而非事后救火。
仅供参考。
我的HRBP必须是业务导向的,不要搞事情。
有快半个月没有见嘟嘟了,好想她。
昨天经历了人生第一次在2000人的会场进行演讲,2000字的演讲稿我背了两天,最终效果还不错,也算是成长了。
这一周好累,最近多年来出差时间最长的一周,还好没有像之前一样特别烦躁,坚持一下,还有两天。
现在几乎没有任何食欲,没有想吃的东西,蛋炒饭、面条、包子我可以迟一年。
K12多学科用户画像的核心是以“知识点掌握”为核心,串联学习行为、能力特征、学习偏好,最终实现“千人千面”的教学适配(如个性化作业、薄弱点补强、学习路径规划)。其本质是“数据资产化→特征工程化→画像实用化”的闭环,需兼顾教育场景的专业性(如学科知识点体系)、数据的安全性(未成年人隐私)和落地的实用性(一线教学/产品可直接调用)。
精准定位:每个学生在各学科知识点的掌握程度(0-100分量化)、核心薄弱点(如“小学数学-分数除法-带分数转假分数”);
行为洞察:识别学习习惯(如专注时长、错题订正率)、学习偏好(如视频/刷题/图文);
能力延伸:推导学习能力(如逻辑推理、记忆留存)、学习潜力(如提分空间);
落地支撑:为个性化教学、作业推送、学情分析提供可调用的画像标签。
学科范围:聚焦K12核心学科(语数英理化生史地政),明确各学科“知识点颗粒度”(避免过粗“数学-几何”或过细“三角形-等腰三角形-顶角计算-特殊角30°”);
数据边界:仅采集“教学必要数据”(如答题数据、学习时长),严禁采集未成年人隐私(如家庭收入、肖像等),符合《未成年人保护法》《个人信息保护法》;
时效要求:知识点掌握度需“实时更新”(如做完一套题立即刷新),行为特征按周/月滚动更新(如月度刷题频率)。
核心是解决“数据从哪来”“数据怎么存”“数据怎么洗”,确保数据真实、规范、可用。
| 数据类型 | 具体来源 | 采集方式 | 核心用途 |
| 知识点核心数据 | 作业/考试答题记录(客观题+主观题)、错题本、知识点闯关记录 | 系统埋点、API对接(校内SIS系统、题库系统) | 计算知识点掌握度、薄弱点 |
| 学习行为数据 | 学习时长(视频/文档/刷题)、专注度(切屏次数、停留时长)、互动行为(提问/笔记/点赞) | 前端埋点(APP/小程序/网页)、日志采集 | 分析学习习惯、偏好 |
| 基础属性数据 | 年级、班级、学科、教材版本(如人教版/苏教版)、入学成绩 | 人工录入、家校端填写、校内系统同步 | 画像基础分层(如“6年级-数学-人教版”) |
| 辅助数据 | 教师评语、家长反馈、学习目标(如“期末数学提10分”) | CRM系统录入、问卷收集 | 补充能力特征、校准画像偏差 |
存储选型:
热数据(答题记录、实时学习行为,需高并发读写):MySQL(主从架构)+ Redis(缓存热点数据,如当前知识点掌握度);
冷数据(历史作业、月度行为统计,需大容量存储):ClickHouse(时序数据,支持快速聚合分析)+ MinIO(存储错题图片、学习日志文件);
数据传输:Kafka(异步接收埋点数据,解耦采集与处理)。
数据治理(关键步骤,避免“垃圾数据”):
去重:剔除重复答题记录(如同一题多次提交)、无效行为(如停留<3秒视为误操作);
标准化:统一数据格式(如答题时间戳统一为UTC+8、知识点编码统一为“学科-年级-章节-知识点”,如“Math-6-3-2”代表数学6年级第3章第2个知识点);
隐私脱敏:对学生姓名、学号进行加密(如MD5加盐),仅保留匿名标识(如student_id: 10001);
缺失值处理:答题数据缺失(如未提交)视为“未掌握”,行为数据缺失(如某周未学习)按“0”填充。
这是画像的“灵魂”,需结合教育专业性(学科知识点体系)和数据算法,将原始数据转化为可解释、可调用的特征标签。
| 标签层级 | 标签类别 | 具体标签示例 | 计算逻辑 |
| 基础层(who) | 身份属性 | 年级、班级、学科、教材版本、入学水平(如“数学入学80分”) | 人工录入+系统同步,入学水平取首次测评成绩 |
| 核心层(what) | 知识点掌握度 | 各知识点掌握分(0-100)、学科掌握等级(A-优秀/B-良好/C-薄弱)、薄弱知识点TOP3 | 掌握分=(该知识点答对题数/总题数)× 难度系数(难题权重1.2,易题0.8);等级按分位数划分(A≥85,B60-84,C<60) |
| 行为层(how) | 学习习惯 | 日均学习时长、刷题频率(次/周)、错题订正率、专注度得分(1-5分) | 专注度=1 - 切屏次数/学习时长×系数,订正率=订正错题数/总错题数 |
| 行为层(how) | 学习偏好 | 偏好学习形式(视频/刷题/图文)、偏好时间段(早间/晚间)、答题速度(题/分钟) | 按各形式学习时长占比排序(如视频占比60%则标记“偏好视频”) |
| 能力层(why) | 学习能力 | 逻辑推理能力(数学几何题正确率)、记忆留存率(间隔7天复做题正确率)、提分潜力 | 提分潜力=(学科薄弱知识点数量×平均提分空间)- 当前短板(如“计算能力差”) |
知识点体系对齐:先联合教研团队搭建“K12多学科知识点图谱”(如数学按“数与代数→分数→分数除法→带分数除法”分层,每个知识点关联对应题库题目),确保标签与教学大纲一致;
薄弱点识别:不仅看“单个知识点正确率”,还需结合“知识点关联性”(如“分数除法”薄弱可能导致“分数应用题”薄弱),用关联规则算法(Apriori)识别“连锁薄弱点”;
行为特征平滑:避免短期行为影响判断(如某一天熬夜学习),用滑动窗口(如7天窗口)计算均值(如近7天日均学习时长);
主观题处理:通过NLP算法(如文本相似度匹配)判断主观题答题质量(如语文作文、英语阅读理解主观题),结合教师评分校准,转化为“知识点掌握分”(如“作文-中心明确”知识点得分)。
通过算法模型实现特征的自动化计算与动态更新,避免“静态画像”(如半年前的薄弱点已掌握但未更新)。
| 模型用途 | 选型方案 | 优势 |
| 知识点掌握度预测 | IRT模型(项目反应理论)+ 加权移动平均 | IRT能精准刻画“学生能力-题目难度”的关系,避免简单按正确率判断(如难题答对更能体现能力) |
| 薄弱点关联分析 | 关联规则算法(Apriori)+ 决策树(C4.5) | 可解释性强,能输出“若A知识点薄弱,则B知识点薄弱概率80%”的规则,适配教学场景 |
| 学习行为偏好聚类 | K-means聚类(K=3-5,如“主动刷题型”“被动视频型”“佛系学习型”) | 计算高效,适合大规模用户分层 |
| 提分潜力预测 | 线性回归(以历史提分数据为因变量,知识点掌握度、行为特征为自变量) | 可解释性强,能明确“某薄弱点提升10分,总分提升5分”的量化关系 |
实时更新:知识点掌握度(做完1道题→更新对应知识点得分)、当前学习行为(如切屏→实时更新专注度);
周期性更新:学习习惯、偏好(每日凌晨计算前1天数据,周度汇总)、能力特征(月度更新,结合月度测评数据);
触发式更新:重大事件后更新(如期中/期末考试→重新校准学科掌握等级、薄弱点)。
画像的最终目的是服务教学/产品,需落地到具体场景,同时通过反馈持续优化。
| 应用场景 | 落地方式 | 示例 |
| 个性化作业推送 | 教师端:作业布置时选择“按画像推送”,系统自动筛选学生薄弱知识点对应的题目;学生端:APP首页显示“个性化补强作业” | 学生A数学“分数除法”薄弱→推送5道基础题+3道中档题,且包含2道关联知识点(分数应用题)的题目 |
| 学情分析报告 | 教师端:班级学情看板(显示全班薄弱知识点TOP3、各等级学生分布);家长端:月度学情报告(孩子知识点掌握情况、行为建议) | 教师看板展示“6年级3班数学薄弱点TOP1:分数除法(35%学生C级)”,家长报告建议“每日15分钟分数除法专项练习” |
| 学习路径规划 | 学生端:“薄弱点补强路径”(如“先学分数除法基础→再练中档题→最后做综合应用题”) | 系统根据知识点关联关系和学生当前掌握度,生成“step1-step2-step3”的学习计划,每完成1步更新下一步 |
| 教学资源推荐 | 学生端:根据学习偏好推送资源(如偏好视频→推送“分数除法”讲解视频;偏好刷题→推送专项题库) | 学生B偏好图文+刷题→推送“分数除法知识点图文总结”+ 10道专项题 |
教师反馈:教师可在学情看板中标记“画像偏差”(如“学生A的‘分数除法’已掌握,但画像显示C级”),系统自动触发重新计算(如补充该学生近期答题数据);
数据反馈:跟踪应用效果(如个性化作业的正确率是否高于普通作业、薄弱点补强后掌握度是否提升),若效果不佳(如补强后正确率<50%),调整模型参数(如知识点权重、难度系数);
版本迭代:按季度更新知识点图谱(适配教材改版)、优化模型(如加入新的行为特征“笔记质量”)。
| 架构分层 | 核心组件 | 选型理由 |
| 数据采集层 | 前端埋点(神策分析/百度统计)、Kafka、API网关(Nginx) | 神策/百度统计适配APP/小程序/网页多端埋点,Kafka支持高并发数据接收,避免数据丢失 |
| 数据存储层 | MySQL(主从)、Redis、ClickHouse、MinIO | 兼顾“实时查询”(MySQL+Redis)和“批量分析”(ClickHouse),MinIO低成本存储非结构化数据 |
| 数据处理层 | Flink(实时计算)、Spark(离线计算)、Python(Pandas/Scikit-learn) | Flink处理实时答题/行为数据,Spark批量计算月度画像,Python适配教育场景简单模型开发 |
| 模型算法层 | IRT模型、K-means、线性回归、Apriori关联规则 | 可解释性强,无需大规模标注数据,适配K12场景快速落地 |
| 应用服务层 | 后端框架(SpringBoot)、API接口、可视化看板(ECharts/Metabase) | SpringBoot快速开发接口,ECharts适配教师/家长端可视化需求,Metabase支持自定义报表 |
| 安全合规层 | 数据加密(AES)、权限管理(RBAC)、数据脱敏工具(Apache ShardingSphere) | 符合未成年人隐私保护要求,RBAC控制教师/家长/学生的画像访问权限(如家长只能看自己孩子的画像) |
无需搭建复杂集群:用“阿里云RDS(MySQL)+ 阿里云OSS(存储文件)+ 腾讯云埋点”替代自建存储;
模型简化:用“加权正确率”替代IRT模型(适合初期数据量少的情况),用“人工标注薄弱点”辅助算法;
应用落地:先做“个性化作业推送”和“学情报告”两个核心场景,再逐步扩展。
数据采集合规:提前告知家长/学生数据用途,获取书面同意(如入学时签署《数据采集授权书》);
数据存储合规:数据本地存储或部署在合规云服务商(如阿里云/腾讯云),定期做等保三级认证;
数据使用合规:禁止将画像数据用于非教学目的(如广告推送),教师/家长仅能访问权限内数据。
数据质量风险:初期数据量少导致画像不准→先用“人工标注+小样本模型”启动,逐步积累数据优化;
教研适配风险:知识点图谱与教学大纲不一致→联合一线教师、教研员共同搭建和审核知识点体系;
用户接受度风险:教师觉得画像增加工作量→将画像嵌入现有教学流程(如作业布置页面直接关联画像标签,无需额外操作)。
教研与技术结合:画像标签必须贴合教学实际(如“薄弱点”是教师课堂重点关注的知识点),避免技术脱离业务;
快速迭代:先落地最小可行画像(如仅包含“知识点掌握度+基础行为标签”),再根据反馈添加能力层、偏好层标签;
数据闭环:确保“数据采集→特征计算→画像应用→反馈优化”的闭环运转,避免画像成为“静态数据”。
| 阶段 | 时间周期 | 核心任务 |
| 准备期 | 1-2个月 | 确定知识点图谱、数据采集范围、合规授权;搭建基础存储(MySQL/Redis)和埋点系统 |
| 数据积累期 | 2-3个月 | 采集答题/行为数据,完成数据治理;开发基础特征计算(如知识点加权正确率) |
| 画像搭建期 | 2个月 | 开发标签体系、模型训练(如IRT/K-means)、画像更新机制;完成API接口开发 |
| 应用落地期 | 1-2个月 | 上线“个性化作业”“学情报告”核心场景;收集教师/家长反馈,优化画像准确性 |
有两天没有锻炼了,体重可能进入了瓶颈期,最近一直是176斤。
晚上稍微HIIT一下。
ComfyUI真的很好玩,Stability Matrix也不错。
晚上戴帽子睡觉对我的头痛来说并没有任何用处。
脖子难受了,明天或者周六去按摩一下。、
话说这周末要加班两天了,换来的调休放到春节吧。
要戒掉咖啡啊,少年!
我之前写过「我们该怎么告别呢」,其实,就是在想我们该怎么面对现实,面对死亡。
荆轲愧疚于辜负挚友舍身相托。
樊于期则牵挂挚友是否能放下遗憾。
秦王说:“我本可以做的事很多,但我已经做到的事更多”,
生命的价值从不在结局的完美,而在过程,不论是躺平,还是全力以赴。
《驾鹤西去》中“黄泉路上慢慢走,不害怕,莫回头”,像不像《漫长的季节》里面,范伟对你喊的。这不是被动接受命运的终结,而是主动奔赴的、有诗意一般的黄泉路。
《驾鹤西去》的歌词,更是将这种生死观具象化。歌词构建的彼岸世界,无论是民间信仰的轮回体系,还是道教文化的超脱追求,本质上都是中国人对生死的“合理化解读”——我们创造这些意象,不是为了迷信虚妄,而是为了给恐惧找一个出口,给心灵找一个寄托。而“砸了那汤碗,是我要记着你;不上望乡台,是让你忘了我”的深情告白,更道出了生死面前的“双向成全”:铭记该铭记的情义,放下该放下的执念,既是对过往的尊重,也是对生命的善待。
你,能做到吗?
死亡从不可怕,无论你是不是带着执念离开、抱着遗憾活着;死亡也不是生命的“终点线”,只是重新开始一段未知的旅途。
推荐指数:⭐️⭐️⭐️⭐️⭐️,生者为过客,死者为归人。
24年初,我开始管理整个业务,包括我们的AI大模型团队,其中不乏资深的算法专家。两年来我观察到一些很有意思的事情。
首先就是,在技术以周为单位迭代的今天,为什么传统的「资深专家」开始失效,而另一些人却能借助AI如虎添翼?
这个现象,让我联想到物理学中的 「费米能级」(Fermi Level) 。
在微观世界,它描述电子的能量状态;而在今天的职场,它已经演变成一条残酷的 「生存水位线」 。
把AI能力想象成一场正在上涨的洪水。
费米能级之下: 是被淹没的区域。这里是AI已经掌握的技能(基础代码、初级文案、翻译)。在这里,生产力供给无限且极其廉价。
费米能级之上: 是仅存的陆地。这里是AI尚未触及,或需要极高智慧才能驾驭AI的领域(系统架构、复杂决策、人性洞察)。
残酷在于,这条水位线时刻都在上涨。
昨天还是「铁饭碗」的技能,明天一旦落入水位线之下,你的竞争对手就不再是人类,而是每月只需20美元、24小时不间断工作的超级算法。
过去,我们的职业价值遵循「单调递增」曲线:年资越深 = 经验越多 = 价值越高。
但现在,这个公式崩塌了。新的价值计算方式是:
你的价值 = (你 + AI的产出) - (AI单独的产出)
如果你只是在使用AI,但产出并不比AI自动生成的更好,那你的价值就是零。
在水位线之下,人类没有议价权。只有当你能辅助AI变得更强,或者解决AI解决不了的系统性问题时,你才拥有正向价值。
这是最大的变化:「费米能级」决定了未来的人才结构将不再是橄榄型,而是两极分化的费米分布。
就像物理学中低能级填满了电子,职场底层将挤满可被替代的人。
对于资本而言,雇佣人类意味着高昂的社保和情绪成本;而雇佣AI Agent,意味着永远听话、毫无怨言、无限并发。
在这个区间,无论多努力,都只是在和机器比拼廉价的算力。
在能级之上,人数指数级减少。
这里的人,不再是AI的竞争者,而是指挥官。
普通人写代码按行计费;高手用AI写代码,按系统架构的吞吐量计费。一个指令,就能调动成千上万的算力。
这种能力的差距,不再是几倍,而是几何级数的倍增。
结论很简单:中间层正在消失。 世界被折叠成两层,你要么奋力爬上高能级,要么滑落到底层。
面对这场AI的洪水,我们该如何生存?
不要试图和AI比拼记忆和执行,那是必败之战。
真正的稀缺资源,是「定义问题」的能力。
AI是遍地可见的神灯,它能实现任何愿望,但它不会许愿。
只有保持主动思考,拥有独特的、甚至看似荒诞的「愿望」,才能避免被算法生成的廉价内容同化。
不要让大脑成为AI的跑马场。
在费米能级之上,用思考对抗同化。
要让自己保持在费米能级之上,核心在于:
不仅是解决问题,更是定义问题: AI可以解决问题,但只有人能提出独特的“愿望”。
对抗精神懒惰: 只有保持主动思考,拥有宏大的、甚至看似荒诞的志向(像Elon Musk一样,先做Tesla,再搞SpaceX和星链,还要去火星上开疆拓土),才能避免思维被AI生成的廉价内容同化。
原创性: “愿望本身”成为了最后的护城河。