从“谷歌流感”遭遇滑铁卢说起 湃客

  • 时间:
  • 浏览:15
  • 来源:西亚斯教务系统在线_西亚斯教务系统登录_五邑大学教学管理系统
阅读模式 文 | 布薇 作为最让人类“闻风丧胆”的2种甲类传染病之一,这次“鼠疫”突然出现在现代都市人群的视野之中,的确就像突然被扔了一枚超级“核弹”。虽然这次“鼠疫风波”是虚惊一场,但随着北方漫长冬季的到来,真正还有一种不容忽视的、离我们更近的丙类传染病,才是最值得当下的国人去预防和警惕的。那就是被《中华人民共和国传染病防治法》明文列进丙类传染病的——流感。

流感季的到来总让人有一种“去年今日此门中”的相似之感,告诉忙碌的上班族们:口罩该戴起来了,秋裤该穿起来了。年复一年,每当这种时候,各大医院的发热门诊挤满了病人,发烧、流涕、咳嗽,这些最基础的病症会将无论多么傲娇的人立刻打回原形,哪怕前一秒你还在为互联网“云端”打工,为人类科技日新月异的进步而激动,在被流感击中之后,你也还是只能回到“人间”老老实实输液吃药。就像科技迅猛发展至今,我们依然找不到一种最简单的方法帮自己轻松套被罩一样…… 一方面,从计算机到互联网,再到人工智能,短短几十年光景,人类社会似乎颠覆性进化。而另一方面,在诸多时刻,你又能倍感人类实质上的脆弱和渺小。 尤瓦尔·赫拉利在《未来简史》一书中曾以非常宏大的视角审视人类未来的终极命运,表达过惊人的预测:"人工智能和生物基因技术正在重塑世界,未来,那些曾经长期威胁人类生存、发展的瘟疫、饥荒和战争已经被攻克,智人面临着新的待办议题:永生不老、幸福快乐以及成为具有‘神性’的人类。”真的是这样吗?这是否只是乐观人类的一个“错觉”?就像前面所提到的人类健康的一个高能量“杀手”——流感一样,是否它就得一直是来无影去无踪、将人类耍得团团转又无法预测的呢?其实呐,人类对此不是没有采取行动过,然而结果如何呢? 我们来看一个发生在全球知名科技企业谷歌公司的例子: 2011 年,谷歌报告称,其研究人员已经开发出名为“谷歌流感”的人工智能程序——利用谷歌搜索的查询功能来预测流感的暴发,最多可早于美国疾病控制与预防中心(CDC)10 天做出预测。他们“吹嘘”道:“我们能准确推算出美国每个地区每周流感活动情况的当前水平,报告时间间隔约为一天。”但似乎他们的“大言不惭”为时过早。 谷歌的数据挖掘软件审查了5000万条搜索查询,找出了与流感发病率相关的1152个观察结果最吻合的45个关键词,再使用 IP(互联网协议)地址来识别该搜索来自哪个州。为了安抚谷歌用户,表示他们的个人隐私没有被侵犯,谷歌报告称,“谷歌流感”是个完全黑匣子式的程序,因此在选择搜索词语方面没有人为影响,而且,被选关键词也不公开。这样的坦言或许能安抚那些担心自己隐私的用户,但对那些知道黑匣子式模型缺点的用户来说,这应该是个危险信号。 在2011 年的报告中,谷歌表示该模型的准确率高达97.5%,意味着在样本内时期,模型预测结果和 CDC 公布的真实数据之间的相关系数为 0.975。一名麻省理工的教授对此模型称赞不已:“这种方法看上去真的很明智,利用谷歌用户无意间创造出来的数据,查看在网络世界里看不见的模型。我觉得,我们还只是蜻蜓点水,还有更多集体智慧可以深入挖掘。” 然而,在报告发布后的 108 个星期内,“谷歌流感”有100 个星期都过度推算了流感病例数量,错误率接近 100%。“谷歌流感” 对样本外数据的预测结果的准确率比样本内的低得多,预测出未来一周的流感发病数量会与一周前、两周前,甚至三周前都相同。由于流感发病率到了冬季会上升,夏季则下降,因此,就连根据每日气温制定的简单模型都可能比谷歌的黑匣子程序预测得准。 谷歌表示,“谷歌流感”对样本外数据预测失败可能是因为选择了“发烧”(fever)等不一定与流感有关的通用搜索术语。或者,可能那些人以为自己患了流感,但其实没有。毕竟,普通人没法像医生那样准确判断。这些都没错,但是数据在训练期间只是噪声,其准确率还是达到了97.5%。种瓜得瓜,输入无用的数据,输出的自然也是无用的数据。为什么大家都想着石头真的能变成金子,就因为这个模型有“谷歌”的名字加持吗? 有人质疑说,由于流感暴发具有高度季节性的特征,“谷歌流感”可能主要是冬季探测器,挑选出季节性的搜索词语,如新年前夕和情人节。记得吗,华盛顿市奥玛克镇的最高气温是如何预测澳大利亚科廷的次日最低气温的?即使两者之间根本不存在因果关系。谷歌的流感预测可能也是同理。审查 5000 万个搜索词语,一定会有某些恰巧与流感暴发、出生率和中国茶叶价格相关的信息。纸包不住火,问题总有暴露的一天。 “谷歌流感”从此再也没有预测过流感。 在人工智能异常火热的今天,很多人认为我们生活在一个不可思议的历史时期,人工智能和大数据可能比工业革命更能改变人的一生。然而这种说法未免言过其实,我们的生活确实可能有所改变,但并非一定是朝好的方面发展。我们过于武断地认为计算机搜索和处理堆积如山的数据时不会出差错,但计算机只是擅长收集、储存和搜索数据,它们没有常识或智慧,不知道数字和词语的意思,无法评估数据库中内容的相关性和有效性,它们没有区分真数据、假数据和坏数据所需的人类判断力,没有分辨有理有据和虚假伪造的统计学模型所需的人类智能。 计算机挖掘大数据风行一时,但数据挖掘是人为而非智能,也是非常艰巨、危险的人工智能形式。数据挖掘先是通过大量的数据走势、相关关系来发现让我们内心愉悦却无实践价值的模型,然后创造理论来解释这些模型。最近笔者阅读到一本在这个时代难得一见的具有批判性精神的书,名字叫《错觉:AI如何通过数据挖掘误导我们》,这本书的作者另辟蹊径,从反面探讨了AI研究中存在的一系列问题。开创性地提出了“得州神枪手谬误”和“史密斯测试”,通过一系列实例说明,如果你挖掘和拷问数据的时间够长、数量够大,你总能得到自己想要的结果,然而这是相关关系却并不是因果关系,只是自我选择偏好,并没有理论基础也没有实用价值。 在人工智能时代,我们对计算机的热爱不应该掩盖我们对其局限性的思考,真正的危险不是计算机比我们更聪明,而是我们认为计算机具有人类的智慧和常识,数据挖掘就是“知识发现”,从而信任计算机为我们做出重要决定。但其实,更多的计算能力和更多的数据并不意味着更多的智能。 如今大数据、坏数据、假数据充斥着我们的生活,数据挖掘以相关关系取代了因果关系,AI到底是真的有智能还是只在服从?且让我们在行进之中继续探究下去! 《错觉:AI如何通过数据挖掘误导我们》 [美]加里·史密斯著 出版日期:2019年11月 中信出版社

猜你喜欢