By:醒客Thinker
过去几个月,随着ChatGPT进入公众视野,引发了巨大的关注。本文不再重述已被大量介绍过的内容,比如技术细节、对话表现;聚焦探讨:类ChatGPT大语言模型带来了什么工具,有哪些可能性;提供的服务会渗透到哪些行业,影响哪些工作;造成这些影响的原因,潜在边界是什么;探讨机器地位、人机伦理,以及社会影响;最后简单探讨大语言模型的数学原理。藉此给产品设计和技术开发以及广大爱好者一些启发和参考。
本文阅读无需深度学习、编程开发的知识要求。快速阅读也可以跳动阅读标题和加粗字体部分,需要了解细节再停下来详细阅读。每个以a、b、c开始的单元都是独立的,可以只挑选自己有兴趣单元阅读。
0,ChatGPT引爆AIGC
先花点篇幅简单介绍一下ChatGPT与AIGC,对此已经很熟悉的朋友可以直接跳到第1节“智造挑战”开始。
ChatGPT,Open AI公司出品,在大语言模型GPT-3基础上开发出的对话式机器人,3月15日已经升级到GPT-4版,与过去各种网络聊天程序相比,ChatGPT有三个方面的惊艳表现:
- 会聊了。以前的对话机器人,开始几句很新鲜,多个回合对话后,会让人觉得跑题或者遗忘了聊过的内容,无法深入交流。ChatGPT能够多回合聊天,就人关心的话题逐步深入。如问:1+2等于多少,答:3,再问:如果1代表4则等于多少,答:6(即把原式中的1换成4,变成了4+2得到6)…用完GPT4会感到:GPT理解用户长文中的每一个词以及词背后的含义。
- 很懂行。与ChatGPT聊天,不是跟街坊大妈的聊闲而是包含了大量的知识,是跟导游聊“去哪儿玩更好”,跟销售员聊“怎么卖货”,跟物理学家聊量子力学,跟教授聊学术论文,这已经不是简单的聊天,是包含专业知识的交流。
- 全方位。ChatGPT能够跨越不同的话题,从旅游聊到经济,从天气聊到物理,从商场聊到股市.. 你聊到哪儿,ChatGPT都能把话题接过去。
专业、全面的知识体系,具有良好的聊天技巧,回答让人刮目相看,这就是ChatGPT给很多人的印象。不过,ChatGPT并不完美,存在事实与幻觉混在一起的情况,看着既八股又八卦,当然,随着ChatGPT版本升级,改善很快。
a,比人会聊天
聊天,尤其涉及专业话题,是一种综合能力的体现,ChatGPT在某种程度上超越了普通人类的阅读、理解与推理等能力!
ChatGPT年初大爆发之后,越来越多的公司加入了竞争,由于采用的都是大语言模型的框架,不做各类产品区别时,后面文章中会用大语言模型、大模型、语言模型、机器模型、机器等来称呼它。
b,从“制造”到“智造”
会聊天可不是小事儿,ChatGPT背后的GPT(即生成式预训练转换器Generative Pre-trained Transformer),涉及到一大类智能应用:AIGC(直译“智能生成的内容”,Artificial Intelligence Generated Conten,或者称为智能创作、智能创造),本文将AIGC翻译为“智造”,与工业“制造”对标。
智造能够根据用户的要求进行创作,形式包括文字、图画、视频、图书、电影…方方面面,以前只能由人来创作的内容,现在“智造”也可以。比如,向智造平台提出文字要求“画一幅春天的画”,它就能创作出一幅有关春天的图画来;还能帮用户修改PPT演讲稿,修正错字、总结标题、美化配图;向智造平台提供标题,让它帮着列出写作大纲,或者干脆写出整篇文章;反过来也行,向智造平台提供一篇数千字的文章,让它总结出一百字的摘要、拟一个标题。
c,改变办公形态
智造将渗透到办公室白领工作几乎所有方面,能够几倍甚至几十倍提升工作效率,有人说,智造能够直接代替很多白领的工作,是工业革命以来巨大的机会,也是巨大的社会危机。
微软公司将集成GPT-4的能力到Office365 Copilot,在Word、Excel、PowerPoint等软件上使用。谷歌公司也准备把Bard(类同GPT)的服务集成到办公系统Workspace(类同微软的Office)中。国内,百度公司推出“文心一言”、阿里巴巴推出“通义千问”… 一时间,众多人工智能厂家跃跃欲试,新一轮人工智能——智造正在爆发。
1,智造挑战:创作与阅读
使用知识的方式正在改变:不学就可以用。
如果知识不需要记住也能用;如果别人刚想到的办法,我们不用学习也可以立即作为自己的方法来用…
1a,无需学习,直接使用
有人说:人之为人,是因能学习他人的经验与知识。文明发展的数万年来,从非洲的大草原到村庄再到城市,人类社会经历了翻天覆地的变化。而绝大部分动物几乎没变,一直在丛林里原地踏步。
l 过去,知识记住才能使用
几乎每个人的小时候都有一个梦想:当遇到忘了的题目,只需摸一下桌上的台灯,灯光就在脑海里印出答案,大家希望忘了的也能会。语言大模型正让梦想成为现实:不论是工作中的还是生活中的,有问题不需要冥思苦想,向语言大模型提出来,马上得到答案。
语言大模型给每个人配了一个助理,随叫随到、随问随答,知识储备超过了几乎所有大学的教授,学习的意义已经改变:不再是为了记住知识。
l 用“外脑”绕过“学习”
“书到用时方恨少”成为过去,通过语言大模型的服务,每个人解决问题不再只依赖自己知道的知识,而是使用全人类掌握的知识。人与知识的关系变了,语言大模型是人的外脑,不善用“外脑”就会拖全社会的后腿。
一个人掌握的某项知识和技能,训练给语言大模型,就能供全世界其他人使用。知识不需要学习就可以使用,使用知识的门槛大大降低了。
要注意,并非所有知识都可以不学习就使用,大模型拓展了知识面,但还需要个人有理解力。现代社会,个人面对的问题宽泛而复杂,要求的理解力更多是通识能力,学习是为了获得通识能力。这个讨论中,大家注意学习知识、学习专业技能、学习通识能力以及记住知识、理解知识的区别,后面讲通识能力的部分大家再进一步体会。
1b,不掉书袋,面向问题
“人类已知的全部知识”,有人怀疑语言大模型会不会只在“掉书袋”,就像人类的一些饱学之士,讲话引经据典,遇到实际问题却一筹莫展,人们称之为没有“理解”,读死书。
l 不“掉书袋”,比搜索快几倍
语言大模型在“掉书袋”吗?不算。语言大模型不仅能够把不同文章中的知识点综合起来,还会重新组织语言,让整段回答看起来更符合人的阅读习惯。相比之下,搜索引擎倒是妥妥的“掉书袋”,搜索结果是第三方网页的列表,用户需要自己一个个去阅读原文。
语言大模型把多个页面中的内容整合到一起,过滤掉了大量的无关知识,为用户节省了几倍时间。也有人诟病:过滤掉信息也可能抹掉了多元化视角。反驳者会说:人的精力有限,总要有所取舍。
搜索引擎是互联网开启以来获取知识、信息效率最高的方式,语言大模型将代替搜索,成为新的知识入口,效率预计提升几倍到几十倍。
l 注意分歧:理解与幻觉
语言大模型有时会犯一些看起来很低级错误:不理解一个成语,面对复杂问题时兜圈子,甚至一本正经地胡说八道。有人说,这是语言大模型不具备“理解”能力的证据。
另一些人的意见完全相反:人也会误解成语,只懂三分硬聊八分的人类侃爷也会在不熟悉的问题上兜圈子;有时候,一个人自认为是“高级”错误,在另一个专业的人看来,也很低级。语言大模型会犯人类的错误,恰恰说明它具有人类一样的“理解”力,是以前我们误解了人的理解力。
根据大语言模型的工作原理,能够记住输入的知识,对应人的记忆;能够发掘不同知识之间的相关性,对应人的理解。以前人类独有的理解力,机器模型可以批量复制,机器大规模代替人类智力工作的浪潮即将爆发。
要注意,大模型基于语义相关做出的“理解”并不一定符合现实,此时,被称为机器幻觉。幻觉随着模型优化已经大幅度减少,但从大模型工作原理上看,并不能完全杜绝。幻觉或说可靠性并不是“是和非”的两极问题,是否满足工作的量化要求是选择大模型的标准。
说到可靠性,搜索引擎提供的结果也有可靠性的问题,搜索排序按照热度和关联来排序,引用的文章也可能存在虚假和误导,一些用户为了商业利益,会通过搜索优化提升广告、误导信息的排序,搜索厂商可能会因为利益默许甚至纵容。
l 适合知识整理,降低经验依赖
因为存在幻觉,大语言模型更适合理解某一个领域的人士,不适合缺乏基本认知的“外行”人,可以把语言大模型定位成知识整理工具。大模型能够找出知识的关联,但不能百分百确认它们有效。那么,不懂的人没法用,懂的人要它干什么呢?
看看白领们的工作,商业宣传、产品说明、技术实现… 这些工作都只需要使用已有的知识,可千万别小看,这些在所有工作中占比九成以上。大预言模型能够大大缩短白领的工作时间,降低经验要求。一个刚入行的年轻医生,借助医学大语言模型,能够像老专家一样做出更好的医学诊断。另外,科研人员等也可以使用大语言模型,后面会再讨论。
1c,高效智造,警惕泡沫
语言大模型不只问答,扩展之后,还可以写一篇文章、画一幅图、编一本书,或者设计一套商业方案… 语言大模型可以实现创作,称为智造(AIGC智能生成内容,智能创造,本文译为智造),只需要几秒钟到几分钟,就能干出人类创作者几小时甚至几天的工作。
知识创作门槛大幅下降会带来什么?只需要为此欢呼么?不妨先回顾下历史。
20多年前,人们创作要通过报纸、杂志或者写书来实现,每个人每天几乎都读书、看报,但自己能写上去的人太少了;03年前后,出现了博客,每个人都可以通过博客发文章,表达自己的观点和想法。
“有地方写了”,很多人也愿意写了,以博客为代表开启了一波创作热潮,当时有一个说法: “人人是作家,个个是记者”,社交时代来了,知识创作被大大释放。
l 知识创作泡沫化
博客带来的问题是什么呢?写作的人大量增加,阅读的人却几乎没有增加。结果是:知识创作爆发之后,注意力分散了。
注意力分散得并不平均,网络热门文章的阅读人数远远超过了杂志时代,达到了千万、数亿级别,而9成以上更多的冷门文章,阅读人数只有少得可怜的个位数。阅读人数少意味着社会价值低,写作者会考虑:辛辛苦苦写篇文章值得吗?知识创作的价值被稀释,产生泡沫。
07年,随着社交的深入发展,出现了微博,不再是一篇文章,写一两句话就可以发表了。再后来短视频,都不用写字,露个脸就可以,创作进一步释放,创作的泡沫化更加严重。
如今,各种AI智造平台纷纷推出,每个平台都是一个强大的创作工具。一个问题自然浮现:这么海量的创作,谁有那么多时间和精力去欣赏呢?我们常说,现在是过剩的时代,一般指的是制造业生产过剩,如果需求不提升,“智造”会加重“制造”过剩。
2,智慧庄园:消费驱动力
劳动(生产)交给机器,人类负责享受(消费)。
农业社会,劳动全靠人的体能;工业社会,劳动由人的使用机器完成;智能社会,劳动由机器来完成。人类、知识、生产,再算上消费,应该怎样组合?
2a,知识动物,工具“活”了
粗略地,我们把工作分成两类:与人打交道、与物打交道。
l 物是“死”的,人是“活”的
与物打交道,通常称为执行,意味着所有工作自己干,执行者选择工具、对象、资源,不能忽略工作的每个步骤、细节,一个小失误都可能导致出错。物是“死”的,活得人来干。执行的好处显而易见:只要依照既定的工作的步骤,就能收获良好的成果。
与人打交道,通常称为合作,就是一部分工作交给别人干,交出去的工作,也让别人来决定步骤、细节。人是“活”的,自己会干活。合作的好处也显而易见:别人总能做出你没有想到也不需要想到的结果。补充说明,控制感过强的人要除外,他只能得到自己想要的结果,而且效果总被打折扣,也被看作不善于合作。
l 知识动物降临,工具“活”了
拿画画来说,如果你是设计师,与物打交道,工作对象的画笔、画板是“死”的,你需要自己拿起画笔,如何构思、如何勾描、如何填充,每一个步骤、细节都要自己干,画出什么、画到什么水平,从头到尾所有细节都在你的把控之中。
你可以画完之后交给图像大模型(就是图像类的智造平台,此时可以看成软件,称之智造工具)来美化一下,就像一个会精修的老师傅,能帮你提升不少水准(当然,如果你是大拿,或许降低你了的水准);你也可以画个草图,让它帮你完成余下的工作,你的效率可以提高几倍;甚至,你不画任何图,直接用几句话甚至几个词描述一下,它就直接画出来了… 工具自己会干活,“活”了。
帮人创作、美化作品的智造工具就像你养过的猫猫狗狗一样,能听懂主人吩咐,帮着干活,是名副其实的知识动物,但知识动物的智商可比宠物高多了,许多活儿干得比人更好。
知识动物有别于“全靠用户使用才能发挥效果”的工具,原本个人的“执行”变成了个人与知识动物的“合作”,许多细节不再需要人介入,由知识动物自行决定!这也是为什么管叫知识动物。
这时,智造平台更像一个智慧庄园,智造不是“死”工具的集合,而是可以自行长出各种动物、植物的庄园。动物是活的可用工具,植物是丰富的知识库。知识动物承担了过去需要人来承担的工作,智造将传统工作中的合作、执行合而为一。
l “活”的知识
过去的知识,只是一堆书,全人类的知识被尘封在一个大仓库里,只有非常少的一部分偶尔被勤劳的人翻阅;现在的知识,是一群像人类一样理解力的知识动物,它们盘活了智慧庄园——全部的人类知识库,当人提出问题,知识动物给出的不只是回答,而是文档、解决方案,如果对接了机器人或者生产线,活儿都能直接干了!
我们能感受到,知识也活了,有主动服务的能力,既是动物(主动适应),也是植物(安静成长),知识可以独立于人存在,我们将与知识一起协同进化。当然,知识动物现在就像一群顽皮的猴子,能帮你干活,但真要没做好,知识动物可不“担负”这份责任。关于合作责任的问题,后续再讨论。
2b,超脱生产,消费是权利
知识动物能帮人干什么?知识动物干活,人又该干什么?会被智造边缘化吗?
l 消费是一项权利
智造中,我们常看到:人提出问题,机器来回答;人提出任务,机器来完成。不要说工作完全由机器来干,只要大部分被机器干了,这个情况就会让人困惑:褒义地说:很多人不必工作;贬义地说:很多人没有工作。大家乐于不必工作,但不想没有工作,矛盾在哪里呢?
随着智造发展,机器能干的越来越多,人能干而机器不能干的则越来越少。机器负责了生产,智慧庄园将怎样为人服务?有人会说,知识动物包办一切!预测出人需要什么,然后直接送给人。不可以!要保留消费时人的选择,自主选择才能体现人的意义,“把主动权给人”是发展一切科技的目的。
在传统的社会分工框架下,当机器代替了人的劳动,也在侵蚀人类存在的合理性。人虽然不再是劳动主体,但人依然是消费的主体,消费是人的一项权利,不能被剥夺。这是“人类中心主义”的结论,我需要站在人类的角度。
过去的工业时代,消费的权利大部分是由参与生产劳动换取的,因此,消费的权利以“生产权利”的形式存在;现代的智能时代,要避免“机器驱逐人类”的结局,“原来由劳动换得”的权利应该保留给人,直接作为“消费权利”。当然,保障消费权利需要政策和措施方面的支持。后续UBI部分会有继续讨论。
l 机器负责生产,人类负责消费
一个满腹经纶的教授就会桃李满天下吗?不一定,还要有基础好、能努力的学生;一个超级工厂什么都能生产就够了吗?不一定,还要有善于消费的顾客,否则生产就是浪费。消费端总被人忽略,包括那些觉得自己重视了消费端的人。
放宽视野来看,互联网进入电子商务之后,供给侧过剩,生产制造失去了动力,如何化解结构性矛盾?人们似乎忘了,互联网其实是消费网络,随着人从生产端转移到消费端,社会完全可以将焦点从生产端转向消费端。
在确定了人的消费权利之后,迎来一种全新的社会结构:机器负责生产,人类负责消费。人类负责消费,“人只管吃饭”是不是太简单了?不是的!
2c,创造需求,消费的设计
消费不要误解为简单享乐主义,是世界变好的动力,也是美好本身。
l 消费并不简单,智造是创造需求
工业时代的需求相对比较简单,那时,面向消费者的服务虽然考虑到了人的需要,但受限于既定的生产能力,超出生产能力谈需求便没有太多意义。由此可见,“消费=简单的满足需求”只是工业时代的刻板印象,是供需的长期平衡的结果,农业社会与智能社会的供需都不平衡,消费就很复杂。
工业时代,生产制造在精确控制下完成;智能时代,一切又有些不确定了,人类驾驭着知识动物,有点回到农业前时代采摘狩猎的感觉。但两者也有不同:采摘狩猎发生在贫乏荒蛮的草原森林中,是看天吃饭;智造发生在丰盈的智慧庄园里,以创造消费为目标。是的,智造不是简单满足需求,是创造需求。
如何理解创造消费?一个无所不有的智慧庄园,人们赤手空拳地采摘吗?看上去单薄了点,就像《阿里巴巴与四十大盗》中穷木匠,即便来到了充满各种金银财宝的山洞,赤手空拳能带走多少宝贝呢?你在神灯面前,能说出比阿拉丁更有想象力的愿望吗?
还是从森林围猎来获得点灵感:农民对自家的一亩三分地很熟悉,可以有计划地围绕土地生产开展工作;猎人并不能清晰地了解森林里有什么,按计划工作不太可行。猎人得训练出几条猎犬,应对森林中突发的需要,围猎提供了一个满足变化需求样板。
智慧庄园更进一步,一个近乎无限的知识库,可看做有无限生产力的庄园,需求摆脱了生产的限制。不再是过去那种挖掘简单、直接的需求,而是可以开动想象力的消费设计,消费设计——人训练的知识动物有了用武之地。什么是消费设计?比如,可以用智慧庄园搭建出属于自己的迷你庄园。这是一个缩小版的庄园生产工程吗?不是,这是满足个人喜好的消费工程。
l 生产、消费再平衡
说到这里,消费端、生产端更加清晰:人工智能的智造平台——智慧庄园,提供了生产端(供给端);人、知识动物则提供了消费端(需求端)。过去,工业化有大量围绕生产的方法,现在,智能化也需要大量围绕消费的方法。
生产端不再需要人了吗?也不是。智慧庄园是“全人类的现有知识”,尽管相对个人来说几乎是无限的,但全人类的知识作为整体还是需要扩大的:人们需要从地球迈向火星、从太阳系迈向银河系,需要走向更广阔的宇宙,即便是“全人类的知识”也太少了,人类需要努力地扩大知识库,至于如何扩大知识库,将在后续“智研”话题中讨论。
智造时代,有了知识动物——基于智造的知识共用,人类不需要重复地发明同一款车轮,甚至不需要重复生产同一个车轮。人类负责创新,智造负责实现。
有人说,供给端-需求端、消费端-生产端,有必要继续划分吗?如果你重视需求的主动性和多元性、随意性,就觉得有必要;如果你重视需求的被动性和完美性、最优性,就觉得没必要。
3,工作玩家:优势与角色
工作不再是压力,而是成为票友和玩家,尽情发挥长处。
早期社会,男性是打猎者女性是采集者;农业社会到来时,男性打猎女性采集比例大大减少,成了种地的农民;工业社会到来时,农民比例大大减少,转变成了生产线上的工人;智能社会到来时,被动劳动的工人等传统社会角色也会大大减少。如果工作不需被迫,人会做什么,应该做什么?
3a,智造,机器承担工作
智造来了,哪些工作会承受压力,哪些更早被智造取代?是从体力劳动领域开始,逐渐向脑力劳动富集,到知识水平要求较高的领域,再到创意类的工作呢,还是反过来呢?比如,先取代生产线工人,然后是程序员、高级软件工程师,再是创意设计师,或者反过来。
现实两种情况都有,体力劳动的搬运工人和生产线工人已被自动化大批取代,但园丁和服务员还不少;翻译、播音员被数字人取代了,但个人主播、UP主很火;现在,软件工程师、图像设计师成了新的取代对象,但产品设计师的压力不大。
预测下一个被替代对象并不容易,智能的突破并不能简单以脑力、体力划分,得看具体哪种技术取得了突破。智造爆发的情况下,各种职业岗位的压力如何呢?
l 机器适合哪些岗位
先概括一下:自动化终结了工人,智造则终结了白领。
第1类,与物打交道,非科研性工作
包括:程序员、软件设计师、架构师,测试工程师、文案编辑、方案设计。这类工作的特点是,知识富集、逻辑性强、实现复杂、可靠性要求高,不过,如果把工作拆分成小板块的话,每一个小板块的知识都能在其他文档或者项目中找到。过去认为,这类工作很难被机器替代,现在面临压力的原因有两个:小板块知识积累得足够多,智造平台能够实现知识的整理和组装。
第2类,与人打交道,管理类工作
以前,管理也容易被归为不能被智能取代的工作,因为跟人打交道,“管”的人应该比普通人更“高级”,但如果把岗位中具体业务的工作剥离开,纯粹管理的任务分配、监督、核查、验收、激励等内容,智能机器更客观、准确,比人更适合。
第3类,中介且非服务性工作
一种是直接的中介,如房屋中介、批发商、代理商等,包括各种因为需要批量或者周转等的中介;另一种看上去不像,但作用是中介,如超市理货员、收银员,实际是货物和资金流转的中介。
l 期待基本收入保障(UBI)
工业时代的铁幕正在闭合,智造将承担越来越多的工作,失去工作的白领怎么办?智能社会不是大家都期盼的更发达的社会吗?伴随富裕社会的高福利去哪儿了?问题出在:当前的劳动关系主体停留在工业社会时期,劳动既是义务也是权利。
智造社会,生产已经足够富足,总数平均看,每个人都有丰富的物质,但具体到个人就不同了。当前,物资分配的基本原则是按劳分配和按资源分配,参与劳动、握有资源才能参与分配,智造大量减少生产中的人力,他们没有参与社会分配的途径。
人工智能是人类文明的结晶,成果应该惠及全人类。智造时代,劳动作为义务已经没有必要,但劳动对应的权利却不能抹去。正如前文所说,要建立消费直接作为权利的制度保障。
有经济学家提出“全民基本收入”(UBI,Unconditional Basic Income)的概念:以前需要由劳动来换取的基本生活物资,将作为无条件的基本收入得到保障。智能化给社会带来了不确定性,基本收入保障生存安全,将激发全民的创造力。
3b,智研,素人科学家
下面谈一下智慧庄园“扩建”的问题,也就是扩展“全人类的现有知识库”。
扩大人类知识库,也就是研发工作,其核心是“试错”,与很多没有做过研发只在传统工厂工作的人感受不一样:研发工作的焦点不是多做工作而是少犯错误。
l 智研,协助海里捞针
工厂工作九成、九成九或者更高比例都应该是“正确”的,那些少量没有作对的,称为“失误”,所以多做是关键;研发工作相反,九成、九成九甚至更高的比例的工作都没有转化成最终用户需要的产品和服务,是“错误”的,只有一成或者百分之一甚至更少部分是有效的,所以少错是关键。
虽然通过经验研判、理论分析可以排除一部分“错误”,但还是有大量“错误”无法避免,只有通过实验之后才知道“错了”,也就是“试错”。怎样利用类似智造的方法高效试错呢?
前文提到,“智造”与“制造”相对应,可以看做智能化对工业生产的升级,现在,来讨论一个与智造相似但应用在科研领域的新词:智研(AIGC的C原本是Content,现在换成Creation,Artificial Intelligence Generated Creation智能生成创作,简称智研)。
如何利用智研来做科研?智研在科研中起到两个作用:1,获得更多备选方案。新的备选方案只靠人来设计,效率太低了,用智研可以快速得到大量的备选方案;2,仿真。利用智研进行进行数字模型仿真测试,或者连接到物理设备上仿真测试,实现方案的初筛。
l 素人参与科研
通过上述两步之后的方案再进行真实测试,能够大大提高科研效率,降低参与科研的门槛。原来只有专家才有能力进行科研,且科研效率低下,有了智研,让很多原来看上去的素人(行外人)能够成为科研人员。
比如研发新食品,原来需要既要懂食材、又要懂烹饪、还要懂美食才能参加,现在,一个吃货就可以研发出新的美食:让智研平台根据吃货的喜好,自行设计、优选食谱,连接设备自动烹饪,最后由吃货品尝确认最终食谱。同样道理,种地的农民、厨师也可以参加科研了,只不过不同的人参与到智研的环节不一样。
智研不只是研发的效率工具,而是改变了研发模式。很多人担心,智造之后,“低端”的工作被机器取代了,“高端”的工作普通人又不会,智研给了普通人参与“高大上”科研的可能性。每个普通人都能参与到扩展人类知识库的“宏大”项目中。这里,我们再次体会到:人类负责创新,智造负责实现。还能体会到,智研能让创新、创造变得更容易。
智研还表明人与机器之间关系:把人工智能当对手,祂就会变成人类的敌人;如果把人工智能当伙伴,祂就能与人类协同进化。人类发明的几乎所有工具,都比人对应的能力更强,人不必害怕机器能力,但要处理好人机关系。人类发明锤子,不是为了砍掉手,是为了砸开大石头,人手与锤子协作,获得开山劈路的能力。
智研也会改变社会分工的格局,人的能力重新配置。就像过去,英语不好的人没法搞科研,因为近代前沿的科研资料大多是英文的,当机器翻译达到高水平之后,英语不好不再影响参与科研。普通人讲脱口秀的困难,有了GPT段子生成,一个会听脱口秀的人就能创作脱口秀段子,人的职业形态将大大改变… 这里把智造和智研分开来说只是讨论的方便,实际工作中并没有必要进行切割。
l 激活全球人力
最后再解决人们钻牛角尖的疑问:全世界数十亿人,用得着这么多人一起来搞科研创新吗?用得着!如果放大一下视野,解决全球变暖是个浩大的工程,人类还需要移民火星,飞出太阳系、银河系… 所有这些,还需要百亿和更多的人类“科研”人员一起努力。
有人此时可能会产生疑问,直接用智造代替智研,人彻底躺平不行吗?虽然智造效率非常高,但大模型完全按照数学公式计算的结果,当前智造是一种闭合集,而人的创造力则是开放集,这或许就是智造的缺陷。
3c,智服,社会化角色
现在来谈一谈机器难以代替人的部分,主要从两个角度:权利与情感。
l 人的特殊性,权利、情感
前面提到,智造到来,劳动作为义务已没必要,消费作为权利应该保留,就像现代社会的财产权、名誉权、生存权等一样,必须予以尊重,除了基本生活权利,人还需要有参与社会活动的权利、被认可的权利…一句话,每个人都有权享受文明发展的成果。
智能社会,人不再关心劳动权,社会进步动力又是什么呢?工作不是因为要赚钱,而是要获得社会承认。个人在企业的贡献将与对社会贡献更加接近,企业贡献越大则被社会认可的越多,也为将来赢得更大的社会(职业)舞台。
智能社会的基本生活权利以福利形式提供,但人类社会依然是一个既合作又竞争的社会:稀缺的工业时代竞争“生活的物资”,富足的智能时代竞争“事业的舞台”。人们一边努力为社会做出贡献,一边享受社会承认带来的愉悦,这是智能社会新的权利义务平衡。
我们常说,人是社会动物,人需要其他人,说的是情感。人在社会活动中获得其他人的情感支持,或者向其他人提供情感支持,会是人类社会长期存在的一项内容,同时也是重要的权利。当然,人的情感需要并不全来自于人,也可能来自其他动物、植物、物品,或者人工智能对象——知识动物等,这些物化的情感可以归结到劳动权或者生活物资分配当中,这里不做过多叙述。
人对人的情感,还需要明确一下,是指一个具体人对另一个具体人的情感,比如亲子之爱、情侣之爱,虽然大家都有爱的能力,但它只应该发生在特定个体之间,附着在角色之上:父母与孩子、爱人之间。由此可见,过去商店里营业员对顾客的微笑,是卖产品的溢出服务,更接近物化的情感,不是我们这里说的角色情感。
当然,服务未必需要权利与情感,但权利与情感可以融入服务中。
情感附着在角色之上,除了已有的如亲人、爱人、同学、朋友等角色之外,还可以在人与人之间的合作、协作或者服务中增加情感,通过引入新的角色实现,或者说,为工作人员设计合适的社会角色,称为智服。角色情感不只是服务溢出,否则,人们更有理由去选择机器来提供服务。
l 机器不适合哪些岗位
下面我们来看一下,哪些工作更容易由人承担,并推动社会角色化:
第1类:一对一服务
人与人面对面,如家政服务、餐厅服务、售后服务、公共场所安全服务。这些工作当然可以在没有情感的情况下开展,家政服务只关心家居整洁,餐厅服务员只关心菜品口味,售后服务你只关心保修或包换,公共场所只关心限制坏人。
如果增加情感要素呢?会不会改善工作状态。这几种工作工作人员与雇主之间有面对面接触,具备培养情感的条件:家政服务员更关心雇主的日常喜好,成为一位领薪水的准家庭成员;餐厅服务员还成为顾客信赖的健康饮食顾问;售后服务员贴近用户信任,在换新还是维修上更能提升服务体验;公共场所保安,不只事后抓坏人,更提供事前、事中的安全感… 情感能够提高服务双方的价值或意义。
第2类:非标品销售
标准品销售可以被自动化,销售比较好办。个性化时代,更多的是非标类产品,产品需要升级、需要适配新场景。如果销售员与顾客只是买卖的双方,升级、适配就变成了紧张的零和博弈,由于缺乏竞品对标,会让服务很难开展。假如销售员能够让顾客感受到情感服务,销售员在替顾客考虑,销售员成了产品的使用顾问,升级、适配才更好开展。
第3类:产品设计
产品设计师往往让人觉得与技术设计师一样容易被智造替代,但是,产品设计师与技术设计师的职责有很大差异:技术设计师面向产品,追求客观确定性;产品设计面向消费者,追求主观感受性,情感让产品更贴合消费者。
再给喜欢深入问问题的人一个扩展:智服,即设计出新的情感角色。社会富足了,人不再被动卷入无边无际的被动劳动,设计出更好的社会角色,让人活的更惬意。比如:职业成长安慰师,就是一个人成长的支持者,为成长过程排除情绪和情感上的坎坷。
4,团队协作:自主与共建
团队凝聚最大共识和合力,个人发挥最大自主性和创造力。
企业组织会如何变革呢?个人自主与团队共识经常出现矛盾,不过,在知识动物的辅助下,能够尽可能减少团队矛盾,让创造力发挥出最大合力。
4a,自主协作,创新任务
传统的团队有两个重要角色:领导与下属,这里的领导是工作中发号施令、布置任务的上级,不一定是企业的所有者;下属是任务的执行者,按指令完成任务。团队合作是为了寻求合力,一个人作为领导(有时也会有多个),其他人作为下属,配合领导者。
l 智能化,推动管理走向协作
智能时代,如何召集团队?知识动物降临,出现了一个变数:领导想要成立团队来完成更大任务时,他想到的不是召集人类的团队,而是呼唤知识动物——它们能力充分、人格可控、成本低廉。作为下属,又愿意选择什么样的领导呢?处处能帮到自己、不对自己提额外要求、情绪支撑足够.. 这些要求,知识动物也要比人类领导更胜任。
这么说吧,一个团队,如果还是通过计划、组织、领导、控制四大职能来管理,作为领导,你只需要结果,并不想去管人;作为下属,你只需要任务,并不想中间夹个管家婆。传统团队能完成的任务,现在个人单打独斗就可以了。
不再需要团队了吗?还不至于,但组建团队的动机、方式确实变了。我们总说,团队应该协作,不应该只停留在合作。合作只在完成既定的任务,协作是突破既定的框架,实现从无到有的创造,协作比合作有更高的创新性,现在需要的团队,是为了协作而不是传统合作。
过去,在合作模式中,我们想提倡平等,但工作指令是一方对另一方施加权力,本身就不对等;现在,协作模式下,团队中领导与下属变成甲方与乙方,有了平等的基础。
平等地协作,听起来很好,有什么意义或价值呢?过去,团队有领导,一个团队完成共同的目标,指令是合适的组织方式;现在,大家平等协作,每个人的工作不受共同目标的约束。所以,协作不是为了完成预先确定目标,协作面向预先不知道或者变化的目标,协作满足了创新。协作比管理复杂,有不同的职能设定,这里不再展开。
l 协作推动创新
知识动物在合作转向协作中起到了作用可以归为几点:1,协助理清责任边界,减少了协作中责任不清等造成的冲突干扰;2,为协作双方找到最佳的匹配模式,增加沟通效率;3,减少了所有类似管理、监督的事务性干扰,聚焦协作任务。总之,知识动物为成员降低创新约束、维护合作边界。
从这里的分析再次看到:智能时代,重复性工作是没有意义的。重复工作既指完全的重复,也包括变更参数的重复,还包括使用已有知识点重组的重复,甚至有的只是看上去像,像就是重复!重复的范围很广。由此,我们看到人机分工是:人在设定创新,机器执行任务。机器不能创新吗?这有争议,大家自己来回答。
告别朝九晚五,告别考核“工时和成果”的工作方式(产出方式),人们工作,如果还用工作这个词的话,不取决于别人的认可,而在自己预设的意义,一个人自主自立地生活,不是一句拍胸脯的口号,而是技术进步创造了条件。
4b,个人目标,主题跨越企业
下面来探讨一下,新形势下企业与团队的变化,如何达成目标。
l 需求汇聚成主题
团队由领导、下属的关系变成了甲方、乙方的关系,或者说,一方采购者、一方贡献者,当一个采购者提出了需求,并围绕需求提出(设计)了一个任务,需要贡献者来协作时,一个企业产生的前提条件就具备了:贡献者围绕采购者的需求组成协作团体。协作中,没有团队目标,只有围绕需求而趋同的个人目标。
当一项需求围绕了越来越多的贡献者,贡献者之间的差异性也逐渐凸现,会有很多创新成果没有被采购者选择,此时,新的采购者也可以进来“捡漏”,围绕多采购方、多贡献方的协作团队形成了“大同小异”的主题型“集市”。
此时,需求与我们过去的理解有一些差异:需求不再是清晰、明确的,甚至会随着时间出现比较大的变化,当然,这并不意味着需求是任意的,而是像一个专业化细分的市场,对应着不同的细分程度,百货商场里的家私城、家私城里的桌子区、桌子区里的餐桌档…
在互联网上,我们称之为主题,要说网络主题需求与传统细分市场的区别,主题是随着时间不断演化的,而传统细分市场则相对固定一些。参与协作的人在主题中确认自己的目标,并为别人的目标提供协作,再次明确:这是一种只有个人目标没有集体目标的团队。
l 跨越企业的主题
比较一下协作与合作:合作是一种多边机制,基于一个群体来合作,先有团队后有合作;协作是一种双边机制,基于两两的关系来协作,先有协作后有团队。
简单来说,在协作中,人与人之间的关系更重要,团队由这些关系连接而成,个体比一个部门、一个小组更重要。那么,一个疑问就是:还需要企业吗?至少,企业不是必须的。
首先,我们不会为了追求“先进”性而否定企业的价值,那些依赖于多边合作的业务,企业还能起到了很好的组织作用,企业承担经营中材料、人力等资源波动的风险,为合作提供高效率和稳定性。
其次,社交时代之后,大量增长的快递员、外卖骑手、自媒体等自由就业者,企业之外的工种已经有了很大的发展;很多行业的精英人士在多个企业中担任要职,网络化运营的服务越来越多地把用户聚集到社群中。
接下来,智能化会进一步提升个体的独立性,各类业务的发展更多以主题为中心聚集,跨越企业成长,运营规模将得到数量级的增长。
l 给企业注入灵活性
过去,企业合伙,股份制度的关键,建立在起点依赖上,也就是说,一个企业的成长,主要决定于企业成立时的资源,大的变数也控制住在几个大股东的创始团队,还意味着,企业的成功是创始团队“持续合作”的结果。
持续合作不放弃然后成功,这当然是个令人兴奋的图景,可是,如果悲观一点呢?创始团队一直不会有分歧吗?即便他们不想为了一己之利,难道在业务演化过程中,创始团队就一直是最佳搭配吗?在技术日新月异的今天,企业这种只考虑前进不考虑后退的合作模式,真的好吗?
那些在大公司搞红了一个业务之后便挂靴而去的优秀高管,独自创业或者加盟到新项目中的情况越来越普遍,这预示着,企业的组织和重组如果有更灵活的方式,或许能减少关键人物在企业间穿梭带来的损耗。
我不确定企业什么时候会消失,尤其是以采用股份制固定合伙的企业,但显然,智能浪潮下,开源、社区的繁荣预示了新的以主题为中心的企业组织模式。
4c,社会责任:安全与共建
人工智能安全吗?这个问题可以有很多角度:比如,企业的经营风险高吗?企业的经营是否会带来重大社会问题?职员的收入有保证吗?职工的权益能否得到公平、公正的保障?看上去是传统的法律问题,今天成了棘手的技术问题。
l 失控的熊孩子
企业经营会不会带来重大社会问题?过去似乎不是一个问题,一家企业只要产品能经得起质检,能出啥大问题;如果是家新创企业,开发的是新产品,还没有产品检验标准呢?新创企业能怎样,只要不违法,先给个窗口期,做大了再规范也不迟嘛;窗口期?如果一家新创企业,在两个月内就实现用户从0到1亿(比如OpenAI的ChatGPT),两个月时间就成长为不折不扣全球巨头,应该给多久的窗口期合适?
这就是人工智能大难题:还只是个熊孩子,玩的烟花却是原子弹!在大语言模型爆火的这几个月,包括中国、美国、欧盟在内的诸多国家和地区都强调把人工智能安全和伦理放到重要的位置,联合国教科文组织也敦促各成员落实《人工智能伦理建议书》。鉴于人工智能深不见底的风险,伦理安全的责任应该放在起点考虑。
l 企业的价值与责任
一家企业值多少钱?在上市还不流行的时候,企业价值是生产积累的,生产出来的产品,或者产品卖了之后换得的现金,置办的生产设备、原材料,简单来说,企业价值是所有员工劳动的总和,看上去稳定且客观。
有了资本市场之后,一家上市公司的市值=股票价格×股票总数,市值通常看作企业价值对应的价格,包含对企业未来生产、销售的期望值等,与之前理解的企业价值有较大的偏差。近些年,高科技公司的市值越发不稳定,数千亿美元的巨头一天的价格波动超过四分之一,如果还以劳动总和来理解市值,已经很难自圆其说了。
一家公司在两个月内用户数量能够从0到亿级,其价值增量也在千亿美金级别,这不能只从内部创造来理解,而要从外部环境赋予来理解。比如语言大模型的发展,首先,语言是人类数千年的文化成果,语言大模型就蕴含了语言数千年积累的价值;其次,大量用户的参与,每一个用户都为模型完善贡献力量;还有,模型发展中,开源社区贡献的思想甚至代码。
企业价值的外部依赖意味着着,企业应该向社会反馈价值,企业发展对应着社会责任,在当今全球一体的现代环境中,企业不简单是创始人和股东的企业,而是全体员工和用户的企业,是全人类的企业,是非荣辱都与社会相关,企业的发展从起点就要考虑社会责任。
l 开源与普惠
企业如何保证员工、客户、用户权利?如何履行社会责任?靠承诺?靠监督?一个全新的行业如何监督?开源会是一个选项,开源提供了足够的透明度,让外界知道你做了什么。开源既让外部向内提供帮助,也接受外部监督。
问题是,开源足够吗?即使自己开发的代码,也不能完全确定代码的运行边界,否则,就没有测试和bug的必要了,开源可以带来透明,但并不保证无忧。
另一个问题是,开源的要求合理吗?为了防止一个人犯罪,个人如果被要求公开所有的行为,在衣食住行的所有地方都装监控摄像头是无法接受的,也侵犯了隐私权。对企业,强制的开源要求也有类似的不合理。
当然,有折中的办法,限期开源,就像专利保护一样,以用户规模、使用时间、利润规模等作为标准,达成之后就开源、开放,或者直接让全社会共用。
开源还有一个隐忧,开源并不是放弃权利,而是共享权利,如果信用机制不健全,一些拿到开源代码的人,绕开开源机制,在其他方不知情的情况,将代码挪做他用侵犯开元社区权益,甚至修改代码进行违法犯罪。
开源的最终目标,是为了共用,实现人类普惠,在人工智能取代了越来越多的人类工作之后,人工智能平台的收益应该普惠给所有人,为每个人提供UBI(基本收入保障),让每个人都能享受科技发展的成果。
5,人格危机:机器的地位
人,不必成为更好的机器;人,只需作为快乐的人类。
人类的责任:设定任务,引领创新;机器的责任:完成任务,完美实现。
从技术发展角度看,赋予机器人格正在成为现实;但从机器地位角度看,机器的能力构成与人不同,不能简单地让机器成为人。机器与人的边界应该如何界定?
5a,人格祛魅,机器与人
讨论人格之前,大家先看两个问题:平等是人参加各种社会活动的基础,赞成吗?男、女在社会活动中采用相同的评判标准(尤其体育运动)才平等,赞成吗?
人制造了工具,工具与人的边界在哪里?人类早期用木棍摘高处的苹果,工具会传递力量;杠杆发明,工具不只会传递力量,还能放大力量,用棍子能撬动大石头,但工具不能增加能量;蒸汽动力机车发明,工具能增加能量,像人一样能奔跑,能代替体力,但不能替代脑力;计算机发明,工具能代替计算,但不能代替思考;专家库技术发明,机器能逻辑运算,但不能理解、推理;语言大模型发明:它能做… 但有人会说“机器不是人”!技术进步在改变工具的边界。
l 机器不是人?能做人做的事儿
人能做的事儿,如果机器(工具)也能一个一个地做到,“机器是不是人”这个问题已经不重要了,在一个全面碾压你的学霸身上,费尽心思地找一个不如你的地方,除了心理安慰,能有多大意义呢?
“机器是不是人”背后,人们真正关心的是,“机器成为人”对“人神圣地位”的挑战导致社会秩序的混乱,我们担心,机器真要实现了人格,人类是否能处理好一个几乎全面超越自己的新伙伴的关系?
那么,人格到底是什么?机器会有人格吗?答案是,机器会有人格!
人与动物、与机器的不同很多时候归于人格。很长一段历史,人对人格的认知不足,从物理、化学、生物各种角度都无法清晰解释,过去,把人格归为一种特殊的能力,而现在,随着语言模型的发展,机器可以撒娇、生气、耍赖… 机器能够展示出人格的许多特征,其实,人格不需要任何特殊方式,在文字里就可以表达出来。道理不复杂:人类的情绪可以用文字表达,语言大模型具备了操作语言的技能,那它当然也就具备表达人格的能力。
l 机器没有人格?具有人格的特征
当然,人们依然可以认为机器没有人格,只是表现出了人格。这两种说法虽然有区别,但在很多时候只是文字游戏。“人”的特性被技术打破了,人们可以用技术手段造出特定的人格,人格袪魅了。两个方面要注意:1,人格的社会作用在削弱。2,机器人格的社会作用需要明确。
我们说“人格魅力”,是因为作为人的重要特征人格不太容易变化,不会随你做的事情不同而不同。人格有魅力会吸引人与之合作,如果人格随时会变,人格也就失去了魅力。这里说的人格是广义的,包含情绪、情感等方面。
机器可以呈现出人格,意味着,借助机器能够伪装自己的人格,在网络交流中,由于不是面对面,毫无信用的人可以伪装出信用满满的感觉。情绪能够伪装,会影响人们对情绪的信任:人们在交流中总要判断情绪的真假,会让情绪的表达能力减弱,造成交流阻碍,久之,情绪总被悬置,还会影响参与人的心理状态,甚至诱发心理疾病。
所有这些“负面”的背后,不都是坏消息,说明人格、情绪不神秘,像肌肉的力量一样,人能掌握它的规律。机器如果能精确地控制语言内容,也能精确地控制情绪。
人对“情绪可控制”并不陌生,人既是情绪的发布者也是情绪的阅读者,人与人交往的时候,知道别人是不是发怒,也知道如何告诉别人自己在发怒。区别与启发在于:人的情绪更多由潜意识在处理,可控性因人而异(也是难以伪造和稳定的原因),而机器给出了更简单的情绪控制方式。
从积极角度来看,我们可以利用程序做出性格稳定的机器人,而不像一些人类工作者一样,情绪不稳定造成沟通障碍。此时我们又得到一个启示:借助机器人的帮忙,人也能更好地处理自己情绪,变成更文明的人类。
5b,机器人格,避免人机博弈
天问:人工智能会取代人类吗?或者人工智能会消灭人类吗?对于人工智能,如果是朋友,你希望它越强大越好;如果是敌人,你希望它越弱小越好;但是,谁能保证朋友不会变成敌人呢?
l 机器世?
本轮语言大模型普及风暴一开场,短短一个月,“降临”感十足,OpenAI CEO奥托曼也是一阵子感到兴奋,一阵子感到害怕。当机器以“全知”的面目出现,瞬间也冲击着每个人安全堡垒,如果“全知”不是朋友而是敌人会怎么样?
马斯克做了个让人倒吸一口凉气的比喻:人工智能对人类的影响,就像修建高速公路要经过的蚁巢。人对蚁巢没有任何敌意,也没有把消灭蚁巢作为修路的目标,仅仅因为公路刚好经过了这个蚁巢,人的不经意间,蚁巢消失了… 就像经过的无数个石块、土堆一样,推土机轰轰隆隆地推平了路基,没有区分或者没有能力区分哪些有生命、哪些没有生命。
极端天气来临的时候,它对人类、对动植物、对自然界也没有恶意,许多物种就灭绝了。后果是“灭绝”而不需在意“谁故意”让物种灭绝。
机器对人类的威胁,当然可能来自于“动机”,但这首先不来自机器,而来自其他人类。就像原子弹爆炸,它对人类也没有恶意,有恶意的是释放原子弹的人。所以,问题变成了:只要机器对人类没有恶意,就没有灭绝危机吗?哪怕,不到灭绝的程度,只是出现重大的社会失衡?
地球,正在迎来机器世吗?
l 现实问题,平等的内涵
过去我们说人人平等,有一个隐含前提:世界上不同的人,有着类似的体力、智能、价值观,或者简单一句,人与人的生物学基础是一样的。这里说的一样,并不是人与人的体力、智能等完全相等,而是相对于与其他物种对比,可以不区别。另外,生物学的一致性可以让道德、法律的责任与义务也一致,减少歧视。
机器人格的麻烦是什么?机器的体能(机械动力)、记忆(存储信息)、感知(信息采集)、推理(数据计算)等能力与人有完全不同的物理基础,机器与人一起谈“人格”,起点就非常不平等。如果 “人格”是由相同基础决定的“常量”的话,随着智能机器人的到来,“人格”将是不同基础决定的“变量”。我们应该及时为“变量人格”制定规则,避免人与人之间“因为借助的机器人不同”而产生新歧视,也避免机器“从能力上越来越成为超级人类时”走向失控。
l 机器的责任
如何与机器人相处,在人主导的社会,人会抱着人类中心主义的想法;后机器时代呢?那就让机器去决定吧,就像人类要不要决定保护某个物种一样。
阿西莫夫提出著名的机器人三定律:1,机器人不能伤害人类;2,机器人必须服从人类的命令,除非与第1条冲突;3,在不违反第1、2条的前提下,尽可能保护自己的生存。这是一个人类中心主义的约定,暗含一个潜在的忧虑:人被机器碾压式超越。可是,防止机器伤害人类,不能在机器向人举枪的时候才想起来。
阿西莫夫机器人定律在人工智能研发上如何落实呢?人工智能产品的功能设计,不应该与人进行博弈、竞争,如果这项功能直接导致人类的失业、影响人健康,要么放弃往这个方向开发,要么为潜在失业人群安排好后路。
应该如何设定机器人格呢?目前,机器的人格取决于转移的责任。以智能汽车为例,就是,自动驾驶出现的责任应该转移给汽车生产厂,还是汽车消费者。汽车安全可以区分为车辆保全、驾驶员保全两个方面,有了汽车责任转移到约定,我们就知道出了问题该找谁负责,生产者也会在生产汽车时、驾驶员会在启动自动驾驶功能时,多分一份责任意识。
l 多类型主体的机器伦理
机器人格是人工智能伦理的内容,与人类社会为基础伦理的关键差别在于三方面:
1,主体地位平衡。由单一的人走向多类型的主体,它们有着功能(体能)、算力(智能)有巨大的差异,不宜只以平等作为标准,应该扩展为平衡,由机器人参与的社会,要考虑多种不同主体的差别。
2,能力边界管控。不像人,由于身体的限制能力被限制在一个小范围,机器能力几乎是无限。能力的无限使得产生的后果也是无法预期的,因此,机器人投放社会时,需要控制能力边界或者限定使用范围的边界,避免失控。
3,环境改变监测。由主体、能力还会涉及到环境的改变,环境与主体相互作用。
5c,机器人,选择自然
著名的达尔文进化论——物竞天择,关键是三个:遗传、变异、自然选择。物竞:遗传(继承)+变异(创新)为基础获得能力差异,天择:自然选择了更适应环境的那一部分,即适者生存(说优胜劣汰不准确)。进化论不仅解释了生物的演化,也解释了生物的多样性。
在达尔文的同时代,还有一个后来被学界放弃的进化论——拉马克的用进废退,关键点也归纳为三个:用进、废退、获得性遗传。用进:更多使用的器官,功能就进步、加强;废退:更少使用到的器官,功能就会退步、减弱。用进废退得到的能力直接遗传给下一代。
l 物竞天择与用进废退
进化论能解释科技“智能”的多样性吗?
我们想开发一款人造器官比如义肢。普通人时速5-10公里,想通过义肢提高到时速20-50公里。此时,由于缺乏先例,选用各种有差异的方案来测试,表现最好的留下。这个方法类似达尔文的变异(采用不同方案)和选择(留下最优结果),不过,达尔文的变异、选择在“代次繁衍”中实现,义肢的开发在同一代次(同一个人)上实现。
如果一款义肢被开发出来,让人奔跑的速度达到了20公里。此时,尝到甜头的人就愿意进一步提升义肢的能力,在原来取得成果的义肢方案上进行优化,将20公里提升到25公里甚至30公里。这个方法类似拉马克的用进废退,那些使用中取得效果的器官或能力得到加强,使用中效果不佳或者不经常使用到功能则被减弱甚至移除,而且是在同一代次(同一个人)上实现的。要注意:以人为基础开发的义肢的速度是受限的,人的其他器官要能够承受义肢带来的改变。
如果我们想开发的不是人的器官,而是机器人的器官呢?这时候不叫义肢叫机器腿了,开发机器腿的过程跟义肢类似,不一样的是:如果机器腿的能力超越了机器其他部件,可以强化其他部件来适应,机械腿的限制要小得多。
有人会说,人的平衡力如果跟不上义肢,也可以换人的器官,或者干脆换一个人啊,这么说当然可以,但这里的焦点是:机器人能力设定比人类范围大得多,以人为基础的义肢改造很快就有天花板限制,而机器人几乎没有。
用达尔文的物竞天择或者拉马克的用进废退来解释生物现象,都是适应环境的方法,差别在于功能进化是否具有主动性,单个功能是否可以有目的地进化。由上面的对比分析看到:拉马克的进化论更适合解释机器的进化,不妨称作社会拉马克主义。
l 机器物种与生态:从发现到发明
社会拉马克主义是一种有目的社会改造运动,设计物种、设计社区、设计法律…一切皆设计。如果说生物世界,单个生物遵循的是天择——自然选择;那么机器人世界,单个机器遵循的是选择自然——改造自然,机器驱动世界有目的地进化。
又忍不住对比来问一句,生物界不这样吗?生物也会改变地球,但那是无数代生物数亿年的结果,机器则是单个机器实现的。由此也可见,在超长的时间尺度上,达尔文与拉马克也可以握手。
从自然选择到选择自然,世界从宿命的世界转到设计的世界,过去考验的是规律发现能力,限制考验的是规则发明能力。从发现到发明,如果说,发现是在客观性规律的基础上进行的,发现者的行为对被发现对象的影响不大,通常可以忽略;那么,发明是在主观设计的基础上进行的,你想要什么就得到什么,设计者直接决定了被设计对象。
这种变化只是一种臆想吗?不是。在互联网普及之前,公司的发展都是需要考虑适应外部环境政策,对应“适应自然”,公司对外部环境的影响则可以忽略;现在,平台企业跨越全球,一个功能的推出不仅影响用户,还会影响全球经济、政治等外部环境走向,此时,考验一个公司的社会设计能力,即社会拉马克能力。
6,蜂巢社会:生活的意义
体验是生活赖以存在的意义。
人在努力创造自由,但必须看到:从传统的科层社会,到网络社交时代的扁平社会,人类正在掉入孤独社会的陷阱中。
6a,效率陷阱,空转的马达
追求效率为了什么,省事?追求省事为了什么,效率?技术驱动的世界,越来越像空转的马达,高效地自说自话。
l 方便交朋友与交不到朋友
互联网普及之前,认识一个人需要肉身参加各种聚会;互联网普及后,一个小时坐着不动,辗转各种网络聊天室、论坛,就可以认识更多的陌生人。人们觉得,接触新人容易多了,以后朋友应该遍天下。网络刚普及的时候,也似乎印证了这个想法:网络论坛推动的各种网友见面会,人们的社交圈子大大扩展,从传统社会的几个、十几个迅速变成数十、数百。以前,“熟人”都是通过亲人、同学、同事介绍认识的;现在,大多数“熟人”是通过网络认识的。
不过,“新鲜劲”过了之后,大多数人并没有朋友遍天下,不是不能够而是不需要。以前需要找朋友倾诉的烦恼,后来只要在论坛里发个帖子就解决了,现在微博、微信流行,不用约会、不用出门,直接在网上向陌生人倾诉要比去找朋友简单多了,而且,还不需要考虑吐槽给朋友带来心理压力(题外话:当然你要注意隐私安全问题…)。
既然交朋友是为了倾诉,获取情感价值,有了网络上陌生人可以倾诉,还要费力交朋友干什么呢?年轻人变得越来越宅,网络社交没有让人交到更多朋友。
现在,知识动物是建立协作关系的能手:利用文本、语音、3D影像搭建了人与人更简单的交流通道,足不出户就可以跟其他任何人一起,不只是聊天、说话,还可以一起学习、一起工作,更方便地加盟一家公司,参与到一起改变世界的大事业中…
l 走出蜂巢
做到一切这些,只需“足不出户”。什么?人们只需要停留在自己“宅”里——像蜂巢一样。敏感的人看到了另一场网络困境——“人们很容易交朋友”变成了“人们不用交朋友”,那么,“人们不用走出自己的蜂巢”会不会变成“人们走不出自己的蜂巢”?
“人引领创新、机器执行任务”的模式,人与其他人联系显著减少,人只需与机器人打交道。交流很方便,每个人都“自主”地呆在自己的蜂巢中,知识动物慢慢侵蚀着人们的社交欲望,从“不用着急交流”到形成习惯后“不交流也挺好”,人会被困在自己的蜂巢中吗?
人类似乎生活在一个宿命的怪圈中:思想追求越来越高的效率,肉身却停留在越来越低的效率里;思维追求越来越宽的视野,身体陷入越来越狭窄的空间… 人们为了方便而追求效率,而方便了却并不需要效率。
如果只围绕满足方便性这一点,那么方便=>减少活动=>减少干扰=>进一步方便=>… 蜂巢没有任何不方便,但蜂巢也没有存在的必要,“死寂”是蜂巢最后的状态。我们需要避开这样的死亡陷阱,用好知识动物,一并解决社交时代留下的缺憾。
6b,活在体验,意义与价值
生命不只是效率,不是求取最大结果,因为生命最终都将逝去。生命是一个过程:体验是人存在的动力,也是人存在的方式。
l 过程中获得意义
什么是意义呢?通俗地理解,意义是针对自己的,让自己满意,如果没有其他考虑(稍后关系中会说),活着的意义就是让经历的体验偏向更好一点。
交流方式从面对面变成了视频连线,门槛大幅下降,足不出户就可以与更多人对话,但接下来出了点状况:人不是跟以前的朋友聊得更多了,而是与越来越多的陌生人交流,来不及熟悉就换到了下一个。
问题在哪儿呢?在一个人没有朋友的时候,推荐陌生人给他,当他跟朋友交流的时候,要不要继续推荐陌生人?正常理解是不再推荐,但服务平台却继续推荐。人需要朋友,实际焦点是交流的体验舒服;作为任务时,焦点变成了“朋友”的数量。这样的偏差来自于网络平台的利益驱动,也有用户自己的误解。
以前,话题是目的、聊天是手段,哪怕是闲聊,也有维持情感、消除孤独的目的;现在,倒了过来,网络聊天行为本身变得很主动,推着话题乱跑。很多时候,我们聊了几个小时,都记不住跟谁在聊、聊了什么。当然,这种聊天也可以看做是有目的的,就是“消磨时间获得放松”,但这种目的的意义不够。
要避免不被过程中的方法、手段带偏,误入舍本逐末,我们要聚焦生活的意义,聚焦过程的体验。为了避免社交让人变得肤浅,关心如何减少无效社交、无效聊天,用知识动物应对信息泡沫、减少低效交流,重新与朋友交流——生活意义的所在。
l 关系中推进价值
人的社会性决定了“人不能只考虑自己”,还需要考虑支持他人获得生活的意义。支持他人获得意义时,自己对等获得的叫做价值。价值就是上文提到自己意义时的“其他考虑”,或者说,人类的目的不只是意义的最大化,而是意义与价值的综合最大化。
什么是价值呢?通常,价值是指赚了多少钱,积累了多少财产或财富,是外来物带来的帮助。从社会角度看,物从属于人,外来物的帮助实际是其他人的帮助。帮助不是施舍,是社会的互助性,财富数量衡量的应该是人际的互助性。
这些年,价值出现了很多新状况,供需失衡、物价大幅度波动。生产者角度,生产出来的产品越来越不值钱;消费者角度,要买的生活必需品却越来越贵,生产与消费呈现出剪刀差。这些问题,需要对价值含义进行深入挖掘,价值不能只看作财富或者货币数字来衡量的静态财产,而是作为一个社会人,能够主动调度的社会资源,从社会角度,资源所属于人,是调度了其他人。要在社会关系中推进价值。
价值的意义在哪里呢?价值在关系中获得,不是个体内部。避免个人宅在家里、卷缩到自己世界坐井观天,作为一个社会人,最佳的路径或许是:要么创造意义,要么创造价值。
6c,人之为人:深度与眼界
机器极大地拓展了世界的维度,人——数万年前非洲草原的“裸猿”,如何把目光从草原的几公里拓展到数十亿光年之外?
l 立足“我都会”,放眼“看得懂”
知识动物降临,人类从枯燥、被动的劳动中解脱出来。人无所事事了吗?不会!人类脱离体力劳动,并没有脱离体力,各种健身比体力劳动更有益于健康锻炼;人类脱离脑力劳动,当然也不会脱离脑力,应该在脑力上有更多的锻炼。人类脱离被动的劳动,开展更主动的强健体力和脑力的活动,探索更宏远的世界。
人类如何强健脑力,有知识动物伴随,人应该规划学习呢?人有两种解决问题的办法:“我都会”和“看得懂”。靠直觉就能解决问题,通俗说“我都会”,遇到问题大脑同时就能反应出解决方法;靠理性来解决问题,通俗说“看得懂”,自己没把握用直觉得到答案,但如果别人说出了答案,自己能看得懂,可以照着做。
“我都会”当然好,但人的经历和精力都有限,“我都会”的事儿比较少。“看得懂”的范围则要大得多,但前提要有人给答案。现在好了,知识动物可以随时提供答案, 通过“看得懂”做事的范围大大扩展。
直觉反应力是每个人创新创造的核心能力,求精、求高水平;理性反应力则是核心创造力的扩展能力,求宽、求与其他资源的有效连接。
l 如何培养直觉和理性反应力
直觉反应力的培养在于:深耕少数几个最有兴趣的领域。根据不同领域的专业要求,有一些需要投入工具训练。比如钢琴、健身,不只了解知识,还需要足够的训练量,钢琴才有熟练的技巧,健身才能长出肌肉。直觉反应,是器官能力的反应训练,个人能力成长就像长了肌肉一样,是强化了内在的一个工具。
理性反应的培养在于:培养通识能力来面对其他广泛的领域。
许多人觉得,通识是指一种公共知识框架。比如逻辑方法,在数学、物理、化学、生物理科,甚至历史、绘画等人文学科中,都提供了一种通用性思考工具;比如哲学中现象、本质、辩证等概念,能够帮我们在面对不熟悉的事物时,找到有效的切入点。
一项不熟悉植物,先通过叶子形状、花朵颜色、植株高矮这些现象获得感性认知,然后,通过植物学,根据对人健康有害和有利的分析,变成人类的食谱。这么理解通识,不能说错,但重点不突出,也很难把通识能力和专业能力区分出来。
通识能力更重要的是:以简洁的方式,来解释和控制身边感兴趣的事物。换句话说,训练通识能力要围绕你遇到的、感兴趣的事物开展,能把一个事物上学到的能力轻松用来理解另一个事物(机器学习中常称为泛化能力),就展现了通识能力。
l 浅阅读要注意
有些人把浅阅读当作提升通识能力的方法,如果只为扩大知识面,浅阅读的必要性正在下降,把语言大模型作为助手,单纯的知识点并不需要浪费人的记忆。智能时代,浅阅读别像工业时代那些从来不阅读的藏书,沦为一个虚荣的数字。
前面说过“语言大模型不掉书袋”,如果某个人对专业半懂不懂,半懂不懂是一种低配版的“掉书袋”模式,只是记住了一些知识点,并没有形成自己的深入理解,最容易被大模型取代。
7,概率陷阱:事实与推理
概率是事实与概念的桥梁。
最后来谈谈机器学习的数学基础带来的思考。人是有限的,世界是无限的;计算是有限的,现实是无限的。概率是无限与有限的连接,是事实与概念的桥梁。
7a,数字炼金术,意义是指代
深度学习技术走入每个人的生活,但很多人并不满意,深度学习能做到的几乎每一件事,都不能给出清晰的解释。人们的印象中,科学革命以来,技术通常是先有可解释性,然后才实现出来。可解释性、明确的步骤,才能可靠地重复。
有人把深度学习20多年的成果戏称为“数字炼金术”,因为和科学前的炼金术一样:人们点燃炉火,不断添加进一些原料,烧着烧着就鼓捣出一个铁器或者铜器。炼金术有太多说不清、道不明的细节,但不妨碍做出可用的铁锹、铜铲。
数字炼金术士(程序员、算法工程师)也说不清楚许多细节,比如,大语言模型到底是如何实现推理,又称为解释性不足,但不妨碍大语言模型能比人更好地回答一些知识问题。
解释性不足,什么是解释性?粗略地说,就是“A是B”。其中,A是陌生的,B是熟悉的,用一个熟悉的B来解释不熟悉的A。具体来说:如果一个陌生的z可以用熟悉的x、y的组合,即函数f(x,y)来表示:z=f(x,y),那么f(x,y)是z的解释,简称z是f(x,y),也就是说:我们就用熟悉的x、y的组合f(x,y)解释了z。如果陌生的z找不到熟悉的x、y、…的函数f(x,y,…)来表示,则z就是不可解释的。如果用x、y的f(x,y)解释了部分z,则说z的解释性不足。
l 语言模型的可解释
大语言模型为什么会解释性不足?可以追溯到深度学习的数学基础。用一个词总结就是“概率”:大模型中词语用概率表示,通常指在上下文中出现的概率。
语言模型中说“A是B”并不是数学上的“A=B”,而是指“在用A的地方”可以用B来替代,并且也不要求所有地方都可以代替,只需满足一个概率(比如60%),也就是,在所有使用了A的地方,如果能够被B取代的数量占了总数的60%,那么“A是B”。
概率方法有其局限性,下面就列举两个:
第1个,样本量过少
如果一个样本的数量过少,就不足以提炼出足够的特征。这个问题衍生出一些难以解决的问题,比如,个性化物品,你自己做的配饰,新编的一段舞蹈,因为样本太少大模型就不容易认出。
但是,你刚说的话,哪怕以前从来没有说的,也很大可能被认出来,因为你说的这些字、词、短语乃至整个句子,都被被别人说过无数次,通过公共语言库(语言大模型)已经可以识别它们。
依靠关联概率来确定含义的语言、图像等各种模型中,在样本不足时,要确认“A是B”会存在很大的偏差。人类也有类似问题,一个之前没见过马的人,只看到一两匹马,并不容易认出马,当见到的马越来越多,就能认得越来越准一些。
第2个,大样本偏移
如果你检测一个人1万次发现都穿着厚棉袄,能得出结论“这个人只穿厚棉袄”吗?根据统计,结论当然可信,但作为一个南方人你不会采信,因为一年穿棉袄的季节在冬季,只有1/4的时间,正常应该有3/4左右的机会检测到这个人是没有穿棉袄的,现在1万次都是穿棉袄,你倾向于:不是他只穿棉袄,而是检测都在冬季。全是冬季的数据,存在样本偏移问题。
人类是如何理解语言的呢?要说区别的话:语言的人类理解中,名词、动词有现实的指代物,大语言模型则没有。这看上去天壤之别,实际影响并没有想象中那么大。因为人脑处理信息也是符号概念式的,遵循上下文概率原则,只有在面向场景实指的时候,两种差别才体现出来。
l 人类的可解释性
很多时候,人用直觉能够识别样本偏移,知道哪些A是B,哪些A不是B,常被说成人具有解释能力。不过,人之所以能够识别样本偏移,不是因为有什么神奇的判别术,而是因为这个“人”利用了自带的生活经验,经验数据弥补了检测数据的缺陷。如果刚巧,这个人来自“北极”附近的寒带,他的经验就无法帮助检测数据纠偏,他的“解释”能力就会下降或消失。
样本是否偏移,并不能提前规避,如果没有更多的数据补充,已知样本的偏移是不可知的。换句话说,自带经验的“可解释性”会在经验不足时失效。
样本量过少、样本偏移,都可以用外部性来概括,所有被统计的对象,除了统计时赋予的含义,还有隐藏的其他含义。这些含义会在某个无法预知的时候,让样本失去原本的代表性。重要的是,外部性的要在样本集被拓展之后才可能知道,也就是,外部性是无法通过内部知道的,是统计的固有缺陷。
这意味着,计算机的数字系统,从底层开始,注定就是个炼丹炉。只要我们对某个环节的概率表示不信任,解释性就会在此中断。
一个缺乏解释性的方法真有意义吗?那看你怎么理解意义了,如果把意义理解成某种特质或者特例,缺乏解释性会让意义中断,如果把意义看成指代(替代),我们就能释怀,我们不必把指代与指代物看成连续的一体。
7b,泡沫沙丘,概念与事实
通常认为:概念通过符号化,含义是确定的;实际上:用概念来描述事实,概率才是核心。
l 概念的概率性
大家都知道,学好了知识并不等于会用,究其原因,知识要还原到现场才行。教婴儿“拿”筷子,需要尝试很多次才拿得稳,因为“拿”住要用多大力气、以什么角度…等太多太多信息都需要在现场适配,学会了“拿”一种筷子,下次换重一点的筷子,还需要适应几次才能拿稳,“拿”好筷子,要包括用筷子的现场信息,这些信息是变化的,不确定的。
如何看待“拿”这个动作的适应性呢:如果“拿”脱离了具体的场景,“拿”作为一个概念的含义并不确定,具有概率性,实际含义要由使用的场景来补充。
概念的概率性,还在于:知识并非都是公共的,很多知识是个人的。比如:开酒瓶,左撇子与右撇子的“开酒瓶知识”就是不同的。这个例子简单,人容易理解,而现实中,太多因人而异、因使用场景而异的差别被人忽略,导致很多人“很执着”地要求别人接受自己的“正确”方法。
用概念表达的知识并不独立,要在场景中适配。至少涉及到:使用人、工具、工作对象,还拿开酒瓶子为例,增加了谁来开、拿什么瓶起子开、开什么酒瓶,开瓶的知识也会更明确。开瓶知识,没有瓶起子没有用,力气不够的儿童也没用。也即,知识首先是个人性,然后才有公共性。
那为什么知识看上去有公共性呢?简单说,是因为很多时候使用场景是相似的,比如大多数人的力气、采用的瓶起子以及酒瓶大小都差不多,公共知识是场景相同情形下形成的共识。
知识“个性在先、共性在后”提示我们,知识是脚本,由角色在工具、对象和环境中演绎出来,知识的概率性无处不在,只是一些差异则通过多义词来解释,更多的差异在不知不觉中就忽略了。
l 事实的概率性
还记得小时候吗?在上学的路上,你看到前面一个小朋友的身影,跟妈妈说:“前面是我同学小明”,然后快步追上去,等前面的小朋友转过脸,你则一脸尴尬,认错了!妈妈问:“怎么搞错了”,你回答“后面看着像”。“看着像”,事实也是概率的。
“看到一个人”与“以前记住的样子”高度相似,我们会“认出一个人”,正因为只是相似,也就经常会“认错人”。“同一个人”是看着完全相同吗?当然不是。今天他换了帽子,明天他换了鞋子,头发被风吹歪了,衣服上污渍也总有变化,但不妨碍我们把他当成同一个人。
从“认”的过程看,高度相似才是相信的标准:“高度”相似就不会随便认错别人,高度“相似”才能忽略自身的变化。认定事实需要主动包含“概率”来容纳事物日常的变化。
7c,推理的宿命,推论与幻觉
事实与概念居然都是概率的,人们担心,概率是沙子盖的大楼,只要风一大就会坍塌,而一切推理之所以还成立,只不过是风足够小罢了。那么,新问题又来了,概率足够表达推理吗?
l 因果是概念的重复
因果是什么?原因决定的结果吗?传统的坚如磐石的因果决定论,如何出现在了概率沙丘堆建的大厦之中?我们不去探讨因果的所谓本质,从使用的角度来看:当人多次看到甲总是伴随乙之后发生,在下一次看到乙时,就会期待甲的出现,并把甲归为乙的原因,甲、乙是人理解出的因果关系,因果是概念的重复。
l 推理是符号的计算
如何理解大模型的推理?与人们以为的“推理是真理的延展”不一样,推理不是事实的判断,只是一个选取的尺度,既不正确也不精确。举一个简单的例子:
纸上有两个点 A、B,首先是符号,然后作为概念,分别代表经过事实验证的两个知识。用笔在A、B之间“用手”画一条线段A~B,则线段A~B是基于A、B的符号计算。线段A~B首先也是符号,作为概念,代表了以概念A、B为起点的推理,可见,推理首先是符号的计算。
推理的作用是什么呢?我们在A~B上标出第三个点C(C可以在A~B上任取),C被称为推论。如果C被验证为事实,则C是A~B的正确推论;如果C没有被验证,则C是A~B的幻觉推论。
因为C在A~B上,C应该是正确推论,但如果C是幻觉推论说明什么?说明A~B的推理存在漏洞。从符号角度,A到B的画线A~B应该不经过C点才对。那么,问题来了,之前不是说C在A~B上吗,这不矛盾了?
解决的办法是:A~B是手画的,存在偏差,现在有了更符合现实的直尺,“A、B之间的手画线A~B”替代为“用直尺画的新线A-B”,此时,C不在A-B上,也就是,从概念上看,推理A-B没有推论C。线段A-B取代了A~B作为新推理。
总结一下:如果A~B是定理,则A~B上任意点C都应该是正确推论。如果A~B上的C被验证是幻觉,则定理A~B存在漏洞,被推翻,新的定理是A-B。
l 推论是概念映射
如果我们有了新的知识D,还可以在A与D、B与D之间画线,A-D、B-D,加上之前的A-B,得到推理△ABD,则△任何一条边上的任意点C都是推论。C首先是符号,作为概念,推论C是符号A、B、D通过计算得到的概念映射。
当然,即便三个点(事实知识)是确定的,如果辅助作图采用了不同的尺子(不同的数学工具和方法,也对应不同的计算方法),得到的三角形是不一样的,比如直尺得到的是常规三角形、弧线型尺子得到弧线三角性,不同的三角形有不同的边,意味着:不同的推理得到的推论不一样。
选取其中一个三角形(也就是采用其中一套推理),比如直角三角形,现在在某一边上选取C点,即得到符号C,如果△ABD是定理,则推论C作为概念,就是一个正确推论而不是幻觉。
当然,C是不是事实最终只有验证才能确定,那么,推论C有什么用呢?如果没有C,只能验证所有(遍历)可能才能得到事实,有了C,则验证的过程有了更好的优先级,“优先验证推论”提升了效率。在哪些不需要事实验证的场景中,推论则创造了现实,就像VR、AR的使用。 总结一下模型推理,以事实知识为基点,用符号计算获得推论,用推论概念映射事实(醒客文)。