资讯 来源:IT之家 阅读量:10314 2023-03-29 12:19
平日,世界看起来像一条管理良好的铁路:事情是按照我们人类所理解并能具体应用的法则运行。我们能接受偶尔的晚点,它们代表了这些法则的例外。但有时我们会把这个世界所经历的事看作是公路上的多车相撞。这种情况下虽然也遵循与平日相同的物理规律或社会法则,但是变化的单元过多,我们无法预测或解释每一次碰撞的细节 —— 这些细节可以让一辆车只受到轻微损伤,而另一辆车则爆炸变成火球。
一场车祸中所表现出的特点,也同样适用于平凡秋日里在铺满落叶的小路上散步。它们都是这样的事件,其中无数细节之间的相互依存关系优于决定它们的规则的解释能力。我们能做的似乎只是在一种结果出现后为之愤懑或惊叹。现在,我们最新的范式技术 —— 机器学习,可能会揭示出日常世界更多由偶然性而非规则支配。如果是这样,那是因为机器学习可以跳出人类认知的模式,而总结出我们所无法理解或者应用的规律。
机器学习系统的不透明性引起了人们对它们的可信度和偏见倾向的严重担忧。但是它们确实能够工作的事实,可能会让我们对世界是什么以及我们在其中扮演什么角色有了全新的理解。机器学习与传统编程有着根本不同的工作方式。事实上,传统编程是我们基于规则去理解世界的集大成者。举个机器学习中最具代表性的例子:如果要编写识别手写数字的软件,程序员在传统方式上会告诉计算机,“1”是由一条竖直的线组成的,“8”是由一个较大的圆圈和位于其上方的一个较小的圆圈组成的,等等。这种方法可能会有很好的效果,但它对手写数字的柏拉图式理想的依赖,意味着该程序将会误判相当比例的手写数字。因为实际的数字出自凡人之手,不可能如此“完美”。
机器学习模型则懂得从样例中学习。为了创建一个能够识别手写数字的机器学习模型,开发者们不会告诉计算机任何我们人类对数字形状的了解。相反,开发者们给它提供了数千个手写数字的样例图像,每个数字都不同,并且被正确地标记为所代表的数字。系统通过算法去发现具有相同标签图像的像素之间的统计关系。在某种垂直线上的一系列像素将增加图像为“1”的统计权重,降低它为“3”的概率,以此类推。
不可知,却有效
随着我们越来越依赖于像 DeepMetab 这样我们无法理解的机器学习模型,我们可能会逐步接受下面两种观点:第一种观点表示,为了获得由机器学习模型生成的有用的概率输出,我们必须经常容忍无法解释这一缺点。第二种观点认为,难以解释并不是一种缺点,而是一种真实情况。机器学习模型之所以有效,是因为它们比我们更擅长阅读世界:它们通过统计相互关联的海量数据而产生超越人类等的认知,无需向人类解释自己如何得到这样的认知。每当一个公民或监管者因无法理解机器学习的工作原理而发出绝望呼声时,我们都能感受到这些模型确实有效。
如果机器学习模型的工作原理是放弃用可以被理解的规则来简化并解释复杂性,那么在“它有效!”的呼声中,我们可以感受到所有微小事物在它们的相互依存中彼此互动。而这些微小事物才是真正的本质,它们在和谐规律的宇宙音中发出嘎嘎声。我们技术的成功正在告诉我们,世界就是一个真正的黑匣子。
从手表到汽车,从相机到恒温器,机器学习已经深深嵌入了我们的日常生活。它被用来推荐视频、尝试识别仇恨言论、引导车辆的行驶、控制疾病的传播,并对缓解气候危机至关重要。它并不完美,可能会放大社会偏见,但我们仍然继续使用它,因为它有效。机器学习在不对特定事物应用规则的情况下完成所有这些工作是令人惊讶甚至不安的。我们太过于偏爱规则而非个例,以至于我们认为让一个机器学习系统在不知晓规则的情况下单纯通过分析大量棋局和走法而玩围棋是疯狂的。但这就是机器学习成为史上最优秀的围棋选手的方式。实际上,当开发者为系统提供与一个领域相关的数据时,他们通常会故意向它隐瞒我们已经了解的数据之间的相互关系。
过于具体的概括?
现在,即使是稍微了解机器学习的人,也会感到毛骨悚然,因为机器学习模型是通过从数据中进行泛化而创建的。例如,如果一个手写数字识别的机器学习模型没有从它所学习的样本中进行泛化,就会因过度拟合而成为失败的模型。但是,机器学习模型的泛化描述不同于我们用于解释特定情况的传统概括。我们喜欢传统的概括,因为 我们可以理解它们;(b) 它们经常能够导出演绎结论;(c) 我们可以将它们应用于具体情况。但是, 机器学习模型的泛化描述并不总是易于理解;(b) 它们是统计的、概率上的且主要是归纳的;(c) 除非运行相应的机器学习模型,我们通常无法应用这些描述。
此外,多层次机器学习模型的泛化描述可能会非常具体:例如,视网膜扫描中的血管模式可能预示关节炎的发作,但前提是满足 50 个数值指标,而这 50 个指标又可能是相互关联影响的。这就像你想知道一辆汽车在多车相撞中是如何避免严重损坏的一样:车辆必然要克服很多具体条件,但是这种事件不能归纳为一个可理解的规则,这种复杂规则也无法迁移而应用于其他事件。或者,这就像在一场谋杀案中的线索,虽然能指示凶手,但只对这一场案件有效。
机器学习模型并不会否认规则或者定律的存在。它只是强调仅有这些规则不足以理解我们这个复杂的宇宙中发生的一切。偶然的细节相互影响,使规则的解释能力变得不足,即使假设我们可以知道世间所有的规则。例如,如果你知道引力和空气阻力的法则,以及硬币和地球的质量,并且你知道硬币从多高的高度掉落,你就可以计算出硬币落地需要多长时间。这通常已足以满足你的实用目的。但传统的西方科学框架过分强调了规则。要完全应用这些规则,我们必须知道每一个影响落下的因素,包括哪些鸽子会扰动硬币周围的气流以及远处星体对它的万有引力同时施加的影响。要完全准确地应用这些定律,我们必须拥有像拉普拉斯妖那样的全面而不可及的宇宙知识。
这并不是对追求科学定律或实践科学的批评。科学通常是以经验为基础的,并且足以满足我们的需求 —— 虽然实际可实现的精度会让我们做出一定让步。但这应该让我们想到:为什么西方世界把难以解释的混沌现象视为纯粹的表象,认为其下有可以解释这种现象的法则呢?为什么我们本体论上更喜欢永恒不变的东西而不是不断流转的水或尘土呢?
改写对知识的定义
这些是西方哲学历史上常见的话题,远超出了本文的范围。但不可否认,我们被永恒法则所简化的世界所吸引,因此我们能够理解世界,从而预测和控制它。同时,这些简单而美妙的法则向我们隐藏了特定情况的混乱,这些混乱不仅由法则本身决定,而且还受到每个其他特定情况的状态的影响。但是现在,我们有了一种预测和控制技术,它直接源自整体同时存在并相互影响的诸多微小因素。这种技术给我们带来了更强的控制力,但并没有增进我们的理解力。它的成功使我们关注那些超出我们理解的事物。
同时,出于同样的原因,机器学习可能会打破将确定性作为知识的标志的迷恋,因为机器学习的结果是概率。事实上,从机器学习模型得出完全确定的结果会引起人们对该模型的怀疑。机器学习的输出的概率具有内禀的不准确性;对于概率的真正陈述是能够正确预测其错误几率。
现在,我们拥有了一种震撼我们的机制,一些从不可理解、精妙的网络中相互连接的诸多细节中汲取信息而运作的模型。也许,我们无需将那些混沌的漩涡视为仅仅是还未了解透彻的表象。也许,所有因素之间相互影响的复杂性与认知难度将撼动西方科学的认知基础,即最真实的是最固定、最普遍和最可知的。
也许,我们终将接受简单事件难以想象的复杂关联、各种意外与巧合才是世界的真实面貌。我们亦会接受 1.4 公斤重的大脑不足以建立对于世界完备的认知。世界残酷的不可知性正在模糊我们理解的边界。如果这正在发生,那是因为我们通过诸如机器学习模型听到了更多特殊的、微小的、喧嚣的信号。这些信号正在产生基于难以理解的万物之间联系的有用的、惊人的、概率性的知识。
作者:David Weinberger
翻译:云开叶落
审校:圆周 π 小姐
原文链接:Learn frommachinelearning
免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。