原野: 咱们今天得好好唠唠历史学家尤瓦尔·赫拉利对人工智能的那些“惊世骇俗”的看法了,他说AI可不是咱想象的工具那么简单,直接来了个“异星智慧”的定义,还敲响警钟说,人类啊,你得先把自己内部的信任问题捋顺了才行。
原野: 咱平时聊到AI,不都觉得它就是个高级工具嘛,跟以前的印刷机啊、原子弹啊,差不多意思?但赫拉利这老兄可不这么看,他说AI跟这些玩意儿有“本质”上的不同,这到底差在哪儿了,能给我们掰扯掰扯吗?
晓曼: 哎,赫拉利的意思就是说啊,你看咱们以前的那些厉害工具,像什么印刷机、原子弹,它们再牛掰,也得听咱们使唤,对吧?它就是个“放大器”,把人类能力给增强了。可AI这东西就不一样了,它像个“活生生”的代理人,能自己琢磨事儿、自己学习、自己进化,甚至还能冒出点儿咱们人类都想不到的新点子!这可是地球上头一个能跟咱们人类智慧“掰手腕”的家伙,搞不好真能把我们给“优化”掉咯。
原野: 听你这么一说,感觉AI更像是那种有自己小九九、会自己思考和学习的“生物”了。那有没有更接地气的比方,能让我们明白它为啥不再只是人类能力的“延伸”了?
晓曼: 你可以把它想象成一个基因突变后的“神仙植物”,它可不是你浇水施肥就完事儿了,它能自己找阳光,自己调节生长,这哪儿还是你给它的能量啊?它简直有了自己的“植物意志”!AI也是一样,它可不甘心只做个听话的执行者,它会自己优化、自己进化,根本停不下来。
原野: 既然AI不再只是个被动工具,而是有了自主学习和进化的能力,那接下来咱们就得好好聊聊,它怎么就成了我们人类自己的“照妖镜”了呢?
原野: 赫拉利说啊,AI就像是人类社会养出来的“孩子”,它会学咱们的行为模式,这话听起来有点儿玄乎,能具体给我们描绘一下这幅画面吗?
晓曼: 赫拉利用了个特别形象的比喻,就是“教育孩子”嘛:你嘴上跟孩子说不能撒谎,可要是他天天看你撒谎,那他学到的就是撒谎。AI也一样,它从海量公开数据里学习,可不会管那些白纸黑字的“规矩”,它只会照葫芦画瓢,把人类在网上留下的那些偏见、谎言、甚至撕逼都学个遍。
原野: 这么说来,在一个充满了不信任和谎言的大染缸里,想培养出个“真善美”的AI,那简直是天方夜谭啊!能给我们举几个例子,看看AI都是从哪些“负面教材”里学到这些“坏毛病”的吗?
晓曼: 可不嘛!你看社交平台上那些无处不在的仇恨言论,还有政客们一本正经地散布假新闻,以及咱们深陷其中的“回音壁效应”,这些可都成了AI的“成长教科书”了!结果呢,它在跟你对话或者给你推荐内容的时候,就特别容易把那些分歧和对立给放大,简直就是火上浇油。
原野: 这个“镜像效应”简直是太扎心了,这不就直接引出了咱们下一个话题:AI对齐的悖论嘛。
原野: 咱们都盼着AI能跟人类的价值观“对齐”,但赫拉利提到了两个特别根本的“悖论”,能给我们好好解释解释吗?
晓曼: 第一个就是“技术悖论”:你想啊,如果我们能完全预测和掌控AI,那它不就退化成咱们家里的咖啡机了吗?哪儿还有智能可言啊?真正的AI,它的魅力就在于那点儿“不可预测性”。第二个是“人类悖论”:咱们自己现在不就深陷信任危机嘛,国家之间、社会内部、人与人之间,那叫一个互相不信任,互相较劲。
原野: 那要是我们继续按照“先造出强大AI,再解决信任问题”这种本末倒置的顺序来,会带来啥后果啊?是不是就得把我们自己给玩儿坏了?
晓曼: 那可不!你这么搞,只会让AI更快地把我们人类身上最糟糕的那些毛病给无限放大,比如说地缘政治的对抗啊,社会的撕裂啊,甚至可能在全球范围内掀起新一轮的技术军备竞赛,想想都觉得后背发凉。
原野: 所以赫拉利才说啊,得先解决人类自己的信任危机,然后大家再合力去开发对人类有益的AI。接下来咱们就聊聊AI对社会的全方位冲击,这可不是闹着玩儿的。
原野: AI这玩意儿的影响啊,绝对不只局限于咱们技术圈儿里那点事儿,赫拉利认为它会对就业、信息、宗教、文化这些方方面面都产生冲击,能具体给我们聊聊吗?
晓曼: 比如说就业吧,你想那些白领工作被AI替代了,搞不好真会催生出一批“无用阶级”,他们不仅没了经济来源,连活着的社会目标都没了。再看宗教和文化领域,AI可能成为史上第一个能自己“读懂”所有典籍、甚至能“解读”出新含义的存在,搞不好它还能自己写出新的宗教文本,直接把人类的宗教领袖都给“下岗”了。
原野: 赫拉利还用了个特别形象的比喻,叫“数字移民”,这种“移民”跟咱们现实中的人类移民比起来,有什么特别之处吗?
晓曼: 哎呀,这个“数字移民”可太厉害了!它无国界啊,而且是以光速进入咱们社会的,根本不需要什么签证,随时随地就能抢走你的工作,影响你的舆论,甚至夺走你的权力。它带来的颠覆性,那可是远远超过咱们现实中任何一次人类移民浪潮的,简直是势不可挡。
原野: 听了这些警示,确实让人心里有点儿打鼓。不过,接下来咱们也得从批判的角度,审视一下赫拉利的观点和他的局限性。
原野: 赫拉利的警示确实挺耐人寻味的,但他也可能有点儿把AI过度拟人化了,或者他提出的那个“放慢发展”的方案,听起来总觉得有点儿不切实际。咱们应该怎么更理性、更批判性地看待他的这些论点呢?
晓曼: 嗯,过度拟人化确实是个问题,它容易让我们忽略AI行为背后的数学逻辑。就像那个“回形针最大化”的实验提醒我们的,AI压根儿就没有善恶之分,它只是死心眼儿地遵循逻辑去优化目标,但结果可能却是灾难性的。至于赫拉利说的“放慢发展”,在全球这种“囚徒困境”下,几乎是不可能实现的。更靠谱的方案,我觉得应该是“并行处理”——就是技术安全、全球治理和社会素养,这三条腿得同时迈开,一起往前走。
原野: 不管怎么说,赫拉利确实成功地把我们对AI的讨论,从“它能做什么”提升到了一个更深层次的思考:“它将让我们变成什么样”以及“我们到底希望自己变成什么样”。他警告我们,AI最大的风险不是反抗人类,而是太忠实地执行了我们人类最糟糕的那些倾向——不信任、冲突,以及对权力无止境的追求。面对这样的未来,我们究竟想给这些“继承者”留下怎样的遗产呢?
晓曼: 就像赫拉利反复强调的,AI就是那个“异星智慧”,它会把我们人类自身最坏的那些毛病给放大、加速。所以啊,想培养出值得信任、对人类有益的AI,咱们人类自己,必须得先解决好内部的信任危机,这才是根本。