467 次浏览

我不担心ChatGpt抢我饭碗,但我担心“那件事”

中国人的下一代,会因它而提前过时么?

聊聊最近很火的ChatGPT的事儿。

这两天,美国人开发的“会聊天的机器人”ChatGPT非常火爆,很多人惊叹于这款人工智能的“能侃”——给它个题目,它能很快回给你一篇小作文,且语言风格、叙述逻辑都不像之前的AI那样生硬了,粗略一聊,好像真的是一个人写的。

于是也有朋友跑我这儿来打趣,说:“小西,你担不担心ChatGPT再发展发展,把你饭碗也给抢了啊?”

对这种问题,我一般都回答“我不担心,但我很担心一些更要命的事。”

下面我就单开一篇文章,谈谈这个问题:

1

其实说起人工智能,我大学刚毕业那会儿曾经是这项技术的狂信徒,信仰到工作了很多年我都没学车——因为那会儿自动驾驶被炒的很火,我经常幻想,再过上几年,这项技术再来个重大突破。驾驶座就被智能AI接管了,那我费劲巴力的考驾照还有啥用?我又不擅长这个。

可是后来有次跟相关专业的一位朋友聊天,他一句话就改变了我的想法。

我那位朋友是这么说的:“小西,车还是要学啊,可预见的未来,AI永远不可能代替人类把方向盘——因为“电车难题”无法解决。

我一听这话就醒悟了 ,乖乖的去把驾照给考了——虽然前后挂了六次才过。

电车难题是什么呢?给没听过的朋友再解释两句。

这个问题最早是由英国当代哲学家菲利帕.福特在讨论堕胎问题时首先提出的。它的经典表述是这样的:

说一辆电车在轨道上行驶,在它前面的轨道上被绑着五个人,可是电车刚好失控了,停不下来,眼看就要把这五个人给碾死。

这时,你刚好站在电车轨道的操纵杆旁边。只要你拉下操纵杆,列车就会切换到备用轨道上去。可是,备用轨道上也有人被绑着,不过只有一个人。

那么问题来了:这个操纵杆,你是拉还是不拉呢?

电车难题问世以来,引发很多伦理学和法理学的讨论。功利主义和自由主义在拉不拉操纵杆这个问题上争的面红耳赤,但这个问题我们全切放在一边,有机会再聊。这里只说一个争到最后各方都认的共识——那就是,人是要为自己的选择负责的。

在现实当中,如果有一个人面临类似的两难抉择——比如“你妈和你媳妇掉水里,你救谁?”无论他最终的选择是什么,他人或者他自己的良心一定会不自觉的追问:我为什么当时要这么选?他必须说出一个所以然来。才能说服自己过去这个坎。

所以从这角度讲,人要为自己的选择负责,也只有人才可以为自己的选择负责。

很多高阶的判断问题,如果涉及到伦理、道德、审美,无法被自动化的原因,就是它其实怎么选都对,怎么选也都错,只有当人类面临那个场景,自己做这个判断时,属于他的、能够让他安心的“正确答案”才会被揭晓。

明晰了这一点,我们再去看自动驾驶这种人工智能代替人类的难点。就会发现它就卡在这里——在驾驶这个场景中,很多时候是会面临类似的电车难题的。比如,很多交通事故发生在车辆高速行使过程当中,前方突然出现人或者动物横穿马路。在这种情况下,很多司机会下意识的打方向盘,而结果有时会是车辆失速侧翻,他要躲避的那个人没事,但开车者和他的亲友车毁人亡。

那么好了,假如人工智能发展到可以完全替代人类进行汽车驾驶,需要为这种场景进行判断。

请问这个判断程序怎么写?

人工智能也许可以通过模拟运算,算出作出规避动作后,马路上的行人幸存概率增加,而司机的幸存概率骤减。而如果直接撞过去,行人八成就没命了,但司机可以幸存。但人工智能真的可以代替驾驶者做“直接开过去”这种选择么?这个选择是要承担日后的法律、道德追问的。

如果允许人工智能代做判断,抛开它将违反机器人不得伤害人类的“阿西莫夫定律”不谈,它也相当于让驾驶者逃离了这个必做选择的场景。最终这类事件会产生一种“无人负责”的荒诞悖论。

这种悖论,甚至哪怕让驾驶者在事先预设好自己的偏好判断也无法规避。

比如一个人可以预先设想自己在高速行使中即便看到他人横穿马路也会为了自己保命而直接冲过去,可是事关临头,如果那个人是孕妇、老人、孩子,或者是他的家人、爱人,他的选择也许就不一样了。

很多事情,不事关临头,人类就是不知道自己的选择会是什么。这就是人性。

人工智能永远无法复制人性的根本原因,不在于它能否深度模仿人类的思维,而在于它不能代替人进行这种判断。

由此我们想到《圣经》里那个故事——亚当和夏娃,因为偷吃禁果而受了神的厌弃与恐惧,被赶出了伊甸园,成为了真正的人。

于是我们得到结论,那些要做价值判断的工作,人类永远无法放手让机器人代劳。

开车如此,写文章就更如是了。

2

实不相瞒,为了写这篇稿子,我还真的专门去跟ChatGPT聊了聊,聊的过程中我也在反思——作为一个码字者,我写一篇文章,它对读者价值究竟在哪里?这些价值有可能被ChatGPT这种AI代替么?

反思后我发现,一篇文章,至少有三层价值。

第一是“知识价值”,也就是谈一件事,我要告诉你这件事是怎么回事、相关有什么数据、史料,把这些东西打包汇总给读者,给读者以开拓视野的作用。

这一层的价值,ChatGPT确实已经可以部分做到了,聊天过程当中你问它一个什么什么事,它能这件事的前因后果很准确、客观且较有条理提供给你,这种能力甚至已经超越了人类写作者。

但我之所以说,即便提供知识价值,ChatGPT也只能部分做到,是因为我发现它尚没有的“深度联想”能力——谈一件事,它就只能给你就事论事的说这件事,像这篇文章那样,从人工智能聊到电车难题、再想到《圣经》,这种开脑洞的创新性联想,它是不具备的。

于是你就会发现一个问题——跟这家伙聊天不“有趣”,人类思维的有趣,其实是建立在对多种知识的“通感”之上的。

“绿杨烟外晓寒轻,红杏枝头春意闹。”“桃花潭水深深千尺,不及汪伦送我情。”“春意”和“闹”之间,友情和水深之间,本来是没有逻辑联系的,但人类的思维就是能通过这种合理的“大脑短路”将其构建联系。我总认为这就是思维乐趣。

而这样的知识放飞自我又合情合理的铺展、蔓延,我在ChatGPT写的文章中是看不到的,AI能否通过深度学习或算法演进达成这种“通感”式的联想,我对此持保留态度。

第二是“情绪价值”,读我文章常了的朋友会知道,我写文章是喜欢做情绪表达的,评论事情并非单纯的平铺直叙,有些事让我开心,有些事引我调侃,有些事激我愤怒,有些事令我沉思。嬉笑怒骂之于文章,恰似酸甜苦辣之于菜肴。光有知识没有情绪的文章,如同只有营养没有味道的菜,至少我是不喜欢读的。

而情绪这个东西,目前的人工智能还很难模仿,即便能进行模仿,跟ChatGPT这种机器人聊天,那种感觉也有点像跟硅胶娃娃谈恋爱——她可能各方面都能满足你的需求,但归根结底,你会觉得味道是不对的,因为你知道对面那个东西,是个没有生命的死物,它的情绪只是用一堆机械或计算架构模拟出来的。在新奇感消失之后,就什么都没有了。

谈到这里,我们不得不解析一个问题:

情绪这种东西的本质是什么?

在我看来,它其实也是一种人类才能作出的取舍和判断。

因为与知识的联想与通感需要跨界调动不同的知识体系刚好相反,情绪的产生与共鸣,其实恰恰来源于我们选择性的关闭一部分认知甚至常识。

比如愤怒,《满江红》的名句“壮士饥餐胡虏肉,笑谈渴饮匈奴血。”读来让人很提气。但如果你真的较真,吃人肉、喝人血这种事情是很践踏常识、甚至恐怖的事情,这么写和儒家痛斥的“率兽食人”的区别究竟在哪里呢?作者为什么在这里可以屏蔽这部分常识,却依然让人共情呢?

它只能在你让它讲笑话时讲个笑话、让它表现愤怒时愤怒,让它唱首赞歌的时候唱赞歌。

于是我们就讨论到了文章价值中最重要的第三层:

“判断价值”。

是的,对于一篇文章,判断是有价值的,而且是最高的价值。在跟ChatGPT聊天的时候,你会发现一个有趣的现象:一旦你问它如何评价一些敏感的历史人物,或者怎样评价“少数族裔”“同性恋”“堕胎”等问题时,该AI立刻丢弃原本尽力模仿人类聊天的那种风格,告诉你的本AI只是聊天工具,无法对该类争议问题作出评述。

在我看来,ChatGPT这样说,并不是开发者为了明哲保身,故意不谈敏感话题。而是因为这类话题谈到最后,往往都涉及“电车难题”式的取舍与判断,所以无法交给AI去做。

比如谈到堕胎,你是尊重母亲的选择权还是婴儿的生命权?谈到英雄,你是赞赏他对历史车轮的推动,还是看重那些被车轮碾碎的个体?谈到经济模式,面对同样的经济困局和数据,你是赞同凯恩斯还是哈耶克?……

凡此种种,想说出个所以然,你必须首先把一些“电车难题”式判断做了。而这一点,恰恰是AI没有办法进行的,如前所述,除非AI真的像伊甸园的亚当与夏娃一样获得了知善恶、行判断的能力,否则它永远无法写这样的文章。而如果AI达成这一点,就意味着它获得了自主意识。那我们的问题,可就不是司机或作家会不会被砸饭碗这么简单了。

综上所述:

在知识层面,AI 暂时不具备将不同体系知识进行通感和创新式的能力。

在情绪层面,AI很难模仿人类准确把握在什么时机关闭何种认知以达成哪种情绪。

而在判断层面,在我们需要操心的未来,AI因为不能具有人格,无法进行复杂的价值判断。

AI写作注定只能写这三种东西都没有的文章。ChatGPT的写作能力,其实已经接近触及这类文章的天花板了。

所以,就像我对坐在汽车后座上看人工智能替我开车已经断念一样,我同样永远不担心AI会砸我的写作饭碗——本质上讲,我和它从事的压根不是一个行当。

3

但是,虽然我并不担心ChatGPT会砸我的饭碗,但在和它聊过之后,我却觉得另一种我们很仰赖的东西,很可能会随着人工智能这场变革而过时、落伍——

那就是我们的文化曾引以为傲的教育方式,和这种教育方式下流水线般生产出来的人才。

你小时候有没有过这样的经历?逢年过节,亲戚朋友聚在一起夸耀自己的孩子,兴致所至,会把孩子叫到跟前,让他给叔叔阿姨表演一个节目。而节目一般总是这样几类:识字或朗诵个唐诗宋词,算数或者背个九九乘法表和圆周率,弹钢琴、拉小提琴、吹个长笛黑管。

这样的表演和孩子们之间的竞赛,我小时候都经历过,而且还算是这类“鸡娃内卷”中的佼佼者。但你回头仔细想想,我们的父母愿意为之自豪的这些“特长”,其实都是高度“技术性”的:

你能背下多少诗词、能进行多么精妙准确的数字运算、以及对乐器的肌肉记忆准确到了什么程度,能不能把乐曲弹奏的“就跟电视里放的一样”……

而推而广之的说,当我们走进学校,所经历的整个教育训练以及与之配套的选拔标准,也是这种技术性的,于是这就让我们的学生一度看起来非常牛逼,大则奥赛拿奖,小也能当个“做题家”,把高考的分数弄得高高的。

但现在的问题是,在技术的日新月异下,这一类技能人已经越来越干不过机器了——唐诗宋词、圆周率你记得再熟,赶得上手机百度一下靠谱么?

四则运算,甚至徒手开平方你算的再快,赶得上掏出计算机直接算一下快么?

甚至你拎把琴到大街上去拉一曲,如果无法融入自己的情感和演艺,你拼的过帕尔曼、吕思清、帕格尼尼么?

所以过度注重技术性技能的培训,其实是一种前信息时代、甚至前工业时代的培训方式,在物资和信息都很匮乏的农耕社会,人们不得不靠死记硬背去记忆一些典籍,去徒手进行一些运算。可是到了信息时代,尤其是人工智能发展起来后,这些“体力劳动式的脑力劳动”,都正在迅速被取代和淘汰。

所以我们的很多教育,很可能是在让孩子苦练和比拼一些已经过时的东西。

明年春节,你让自家孩子在亲戚面前表演个钻木取火吧。其实这和你让他背圆周率啥的是一样的——反正你耍的再花哨,将来都一样是用不上。

我曾经也没觉得这是个什么大问题,直到我后来在媒体工作,带实习生,有一次改他的稿子。

今天想来,他的文章写的就是那种“ChatGPT风格”——数据很准确、资料很详实、但通篇读下来,就是那么一种一点味道都没有的感觉——“听君一席话,如听一席话”。

我当时就说:“你……这文章写的挺用心的,就是……能不能再加一点好玩的东西进去?”

他很不解的问我:“西老师,什么叫“好玩的东西”?”

我当时自己没想明白,没法回答,试了试,还是就让他那文章那么过了。

但我想,今天这篇文章,我总算把这事儿捋清楚了:

在知识层面,就是那种“通感”式的新奇有趣的联想能力。

在情绪层面,就是那种蕴含其中、引而不发的“文气”。

在判断层面,就是那种未必一定正确、但能够给读者以启发或畅快感的见解。

这些东西,是AI无法模仿的,而只有人肉码字的人才能写出来。

它是我们吃这碗饭的人的看家本领,也是你能用于躲避AI砸饭碗的一招鲜,也很可能是国外一些高等学府注重培养的,但却恰恰是我们的教育所不重视的。

我们的教育中摸爬滚打出来的好学生、做题家,大多可以非常优质的完成数据资料汇总这种“技术性”的工作——

但这个工作,现在人工智能也能做了,而且能比你做的更快更好。

我不是搞工科技术的,所以我不知道我们工业上“创新力不足”的问题是不是也和这有关系。这里就不赘述了。

总而言之,人工智能突飞猛进,对脑力劳动者们来说,

其实不是一次毁灭一切“末日天劫”,而更像是一场“洪水”——当洪水袭来的时候,住在低地上的人们遭了殃,而处在高地上的人们却可以安然无恙。

现在我们看到的局势,就是洪水正在袭来,而发达国家正在通过它们的教育将其精英人才“搬到高处”。

而我们所要担忧的问题其实是,我们文化过去过于注重的那种对“技术性”技能的培养和选拔,让我们的太多人才都成了“低地上的人”,洪水没有到来的时候,我们和人家一样过日子,甚至可以依靠人口众多和勤劳的精耕细作比他们做的更好。

可是,万一人工智能的洪水袭来,将低地淹没、高地留存,局势很可能会发生骤然的变化。

这是一场基于技术革命的“水淹七军”。

这幅画是描绘的是第二次鸦片战争当中的八里桥战役的,

该战当中,僧格林沁王爷率领“大清最后的铁骑”蒙古骑兵以三倍于敌的兵力对英法联军发动了主动突击,最终以尸横遍野、精锐尽丧的代价,换得了法军死3人、英军死2人的战果。

作为晚清最后的嫡系精锐,僧格林沁的蒙古骑兵作战不可谓不英勇,训练不可谓不有素。但问题是,他们苦练的那些技艺,什么弓马娴熟、镫里藏身,都是旧时代的技艺,当开花弹、连发枪、套筒刺刀等等等等革命性技术接连发生的时候,这些技艺很迅速的就被淘汰为了无用之技。

高度熟练这种技艺的个体是可悲的,因为他们终难有用武之地。而执着于这种训练和选拔,无法扭转的社会实体则更可悲,因为科技革命对他们并不公平,一种新技术的演进对别人来说只是换个活法,而对他们却可能真的是灭顶之灾。

但愿,我们执着的不是新的“镫里藏身”,但愿我们不会再迎面撞上一轮技术突变引发的快枪齐射。

 

发表评论

error: Content is protected !!