数据时代的人们可以免于被支配与奴役吗?
1 问题的提出
以数据信息技术为代表的现代科学技术开启了人类生活的数据时代,并引发了人类存在方式、生活方式前所未有的变化。人性、人格及其尊严等均面临严峻挑战,隐私危机即是其一。隐私是自我得以存在的排他性隐蔽空间,隐私权是现代社会的基本人权之一。
尽管隐私、隐私权早已不是新问题,隐私危机却是智能时代的重大社会问题之一。本文所说的“隐私危机”特指在人工智能、大数据技术广泛应用背景中,个人隐私权有被严重侵犯的可能,此种严重侵犯可能无所不在,且暂时还看不到可以有效抑制的措施。
人工智能时代隐私危机之所以作为重大社会问题出现,就技术实践层面言,是基于以下三个基本事实。
第一,现代电子信息技术的突破性进展及其广泛应用,使得对个人隐私信息的采集变得极为便利、隐秘、详尽,个人几乎无私密可隐。
第二,伴随着数字化社会进程,尤其是大数据技术的广泛应用,人们在越来越依赖信息数据技术的同时极易泄露个人隐私,那些原本无意义的碎片化信息因大数据技术而变得有意义。个人隐私不仅越来越难以被自觉保护,而且被敞现得越来越深入、彻底。
第三,以大数据为基础的数据库趋向于被高度垄断,而被高度垄断的私人信息有可能被用于各种目的。
数据时代的隐私危机对日常生活世界、人性的影响可能具有颠覆性。这是一个去隐私的时代,人正变得透明、裸现。被裸现的不仅有肉体、行为、行踪等现象层面的内容,而且还有精神、意识等内在心灵层面的内容。
随着人机接口与“读脑”技术的进步,也许在不远的未来,人的意识有可能通过读脑术被“读取”,并在不知不觉中被“改写”。“在今天和未来,当移动互联网、大数据和机器智能三者叠加到一起之后,我们不再有隐私可言。”
“我们或许生活在一个没有隐私的环境里,或许会被一些超级权力在无形中控制。”我们正在成为无隐私的存在。一个无“隐”“私”的日常生活世界,对人、人性将意味着什么?
2 作为人的第二肉身的数据
数据时代隐私问题的核心是“数据”隐私。一方面,这是由数据技术广泛应用、无所不在所引起的隐私问题;另一方面,数据时代隐私的基本特征是以数据形式存在的隐私。可以说,数据时代的隐私危机是数据隐私危机。然而,问题的关键在于:为什么数据时代的“数据”隐私变得如此重要?
在数据时代,数据是人的第二肉身。肉身是实体。肉身既是人存在的载体,又是人存在的具象、显现。生命有机体是人的自然肉身。自然生命有机体是漫长生物进化过程的结晶,它使人类在生物学意义上存在于世,并使人类的一切物质、精神、社会活动成为可能。
数据技术则使人有了第二肉身:数据肉身。在数据时代,一切都被数据化,人亦不例外。人即是数据。不仅人的一切活动都以数据的方式进行并成为数据,而且人是怎样的、人可能是怎样的,均由数据构建与呈现。但数据肉身不同于自然肉身。
首先,数据肉身集物质与精神、躯体与灵魂为一体,甚至消除了物质与精神、躯体与灵魂间的区别,一切只是数据。不仅如此,作为第二肉身的数据也不只是由二进制0、1构成的简单数据,而且是人的一切有形无形可能存在的质料。
其次,自然肉身服从生命有机体的新陈代谢规则,无法摆脱死亡的宿命,其显现亦是过程性的,具有不可重复性。然而,数据肉身并不随人的生命有机体的消失而消失,其显现具有重复性与时空重置性。人可以在数据世界中永生。
再次,自然肉身具有时空唯一性,数据肉身则可以同时在无数空间存在且样式各不相同。借用吉登斯的话说,在数据时代,人的“脱域-嵌入”不仅是普遍现象,而且每次“脱域-嵌入”均可能是一种新的显现。
复次,自然肉身是有所遮蔽的,不仅外有皮囊包裹,内里亦是层层“设防”,不借助专业工具无法被透彻窥视。但数据肉身是轻灵且敞现的,无论是生命有机体的组织结构、功能、形态,细胞DNA遗传物质状况,还是日常生活交往关系结构、文化价值偏好、情趣爱好品位等,均可通过一个指令被充分且持久呈现。
最后,自然肉身与数据肉身均有意义世界,但自然肉身的意义世界系主体自身主动参与构建,一旦主体不再参与构建,则主体及其意义世界不再存在。数据肉身则不同。
虽然其价值意义世界依赖原初自然肉身的主动参与构建,不过此原初创造活动只是为数据肉身提供数据或素材,数据肉身的意义世界更多在于对此原初数据或素材的不断叙述、发现、理解。数据肉身是人类在数据时代嬗变出的一种全新存在方式。数据肉身再次打开了对人的本质认识的新天地。
我们至少在某种意义上有理由说“人是数据动物”。赫拉利认为“生物是算法”,人亦不例外。赫拉利的这一认识固然有过于宽泛、轻率之嫌,不过,隐藏在赫拉利这一思想背后的以下两个重要内容却应当被重视。
其一,数据技术带来的“数据化”普遍认知方式具有某种普遍有效性。它消除了世间一切事物间的差别,并在二进制0、1数据中获得统一。
其二,尽管赫拉利所说混淆了人与万物的本质区别,但其以特殊方式所揭示的“数据、算法在某种意义上可以成为人的本体”思想不失合理成分。
一方面,在数据化技术面前,不仅一切自然现象,甚至一切文化现象均可被理解为数据性存在。就个体言,某人是因特定数据而被构成为某人。在此意义上,要理解人的本质,理解人是怎样的、可能是怎样的,只需去理解人的数据世界。
另一方面,人是迄今为止唯一能够自觉创造与利用数据的主体。当人类发明了人工智能(AI)技术,且AI有了超级“自我学习”能力时,人类自身的历史就可能被历史性地改写,人类未来社会的运行逻辑可能明显不同于既往。智能机器人的自我学习能力以大数据为前提,大数据是关于人及其存在方式、生活世界的信息总和。
大数据技术内在地隐含着对每个人存在信息的侵袭。原本自然隐蔽的生命及其存在信息,在大数据中正经历去“隐蔽”的“敞现”过程。人正变得赤裸。现代人类不得不思考:赤裸对人性及其塑造意味着什么?
“数据肉身”向数据时代的人类提出一个极为重要的任务:自觉对抗赤裸,捍卫人的“隐”“私”,守住自我独处空间。在数据时代,正变得赤裸的人的“隐”“私”逐渐变得稀薄,人甚至不再有秘密,不再有“隐”“私”。
有媒体曾报道,一些城市在中小学教室中安装摄像头,将原本在特定时间中属于孩子们“私人”领域的“隐私”变成公共敞现的,进而使得原本课间在教室中可以调皮、释放天性的孩子们,因感受到被监视的可能而变得拘谨起来,孩子们的自由天性亦因这种数据技术的应用而被压抑。
此案例亦提示人们:“隐”“私”绝不仅有物理层面的,它还有心理、精神层面的;物理层面的“隐”“私”固然重要,精神层面的“隐”“私”更为重要;没有物理层面的“隐”“私”就不可能有独立自我,没有精神层面的“隐”“私”就不可能有健康人格、自由精神;捍卫物理层面的“隐”“私”是为了捍卫精神层面的“隐”“私”。
人的存在不仅是复数的,亦是单数的。复数的人是与他者共在的社会性的人,单数的人则是具有个性的、与自我灵魂独处的鲜活个体。单数、私人及其隐私是“独立于或大体独立于政治环境而存在的生活领域”,它们是生命“绿洲”,“维系生命活力的源泉”。如果这些“绿洲”不能保持“完好无损”,人类“将不知道如何呼吸”。如果没有单数、隐私的一面,人类社会就无法维系。
人的高贵在于有精神、有良知,能与自己独处,听从心底的声音。通常说来,精神、意识是人内在的东西,除非人要自觉显现,否则他者很难知晓。然而,大数据、“读脑术”及其反向过程的可能,使人的精神、意识可能不再是“内在”的。
人的精神心理活动有两类:有意识的与无意识的。对于那些无意识的精神心理活动,甚至本人也无法于当下直接认知与控制。如果通过大数据可以分析出一个人的性格特征、心理偏好、情趣爱好、思想内容等,那么,人就可能处于无“隐”“私”状态。
如果再考虑到“读脑术”的进步与日常使用,如果真的到了连人与“上帝”之间的独白对话都不再可能时,人还会有良知吗?如果人意识到这是一个“赤裸”时代,一切内心秘密、良知对话不再可能时,还会守住良知吗?
阿伦特曾表达过一个重要思想:苏格拉底之死表明,一个人与自我的“独处”是保障城邦共同体良好运转的“必要条件”,极权政治组织“首要关心的是消除独处的一切可能性”。人类千百年来的政治实践反复表明,如果不再有一个人与自我相处的最低限度空间,那么,“不仅良心的世俗形式,而且良心的所有宗教形式也都将被废除”。
“在极权主义的政治组织中,良心本身不再发挥作用,而且全然与恐惧和惩罚无关。在无法与自己进行对话的情况下,没人能够让自己的良心安然无损,因为他缺少一切形式的思考所必需的独处。”
尽管阿伦特上述所言直接针对的是人类20世纪中叶那段历史,但对于数据时代维护数据隐私、守住自我独处空间、警惕如赫拉利所说少数“神人”利用数据技术控制人类社会而言,确是重要启迪。
3 “隐私”向谁敞现?
“隐私危机”意味着“隐私”不再“隐”与“私”,它变成“敞现”的,它向观看者“敞现”。现在的问题是:在数据时代,谁是“敞现者”,谁是“观看者”?难道我们都既是“隐私”的“敞现者”,又是“隐私”的“观看者”?或者,人类社会中的一部分人是“隐私”的“敞现者”,另一部分人则是“隐私”的“观看者”?
“隐私”及其“敞现”总是人际间的,且总是对“他者”而言的。只有对“他者”才有“隐私”问题。然而,在数据技术面前,是否全部人类均彼此“敞现”“观看”,进而均不再有“隐私”?这里首先应当注意区分两个不同层面的问题。
第一,在数据技术面前,人类作为整体所面临的可能风险。每一个人都无法逃脱数据技术及其监控,这是由数据技术对人的日常生活世界、存在方式浸润所带来的挑战与风险。
第二,在日常经验生活中,数据技术总是被具体人控制与使用,那些在日常生活中能够控制与支配数据技术者与其他大众会是平等的吗?数据技术本身是否会成为这些人手中的社会控制、支配、奴役工具?
这里指向的是数据技术对社会结构、社会权力、社会控制等社会关系的可能影响。由于后一方面是日常生活的,故它对人性、人的存在方式的影响就更为直接、具体和细微。
一般地说,隐私危机中的“隐私”“敞现”有两个面向。一是面向公众的敞现、裸在。一方面,这会从根本上伤害“羞耻心”;另一方面,“他者”会利用“隐私”对一些人加以控制。二是面向权力的敞现并为权力控制、支配。
隐私危机在这两个层面均存在。不过,即便是面向公众敞现的隐私危机,也未必真的对所有社会成员同样如此。它除了在一般意义上说会在总体上伤害社会大众的羞耻心,加重社会成员间的控制、支配与冲突外,更多地指向社会权力及其控制与支配问题。
如果人类所有成员彼此“敞现”“观看”且是时、空同一的,那么,社会成员在“敞现”与“观看”问题上是平等的,它至多只意味着人类作为整体的人性堕落,而不涉及人格差别及其不平等问题。
如果人类所有成员均能彼此“敞现”“观看”,但在时、空上不是同一的,那么,这意味着社会成员彼此在“敞现”与“观看”上的不平等可能——当然还有彼此之间“隐”与“私”的不平等以及基于此种不平等的人格差别可能。
如果在总体上只是一部分人“敞现”给另一部分人“观看”(之所以有只“观看”不“敞现”者,是因为一些人可以通过对数据技术的控制、支配而“隐”去自己,使自己只“观看”不“敞现”),那么,就意味着社会成员人格的不平等,意味着社会控制与奴役。
抽象地说,在数据技术面前,当今人类所有成员均可能丧失“隐私”。不过,这种认识与判断,除非在一般哲学本体论上谈论21世纪的人类命运及其可能危机,否则,对于理解当今日常生活世界和我们的具体存在方式几无帮助。
凭直觉,我们能明确感觉到:在日常生活世界中,并非所有人都毫无例外地同样“敞现”与“观看”,而是一些人在“敞现”的同时往往“观看”不到“他者”,另一些人则更多地“观看”、更少地“敞现”。在日常生活中,部分社会成员更多地丧失“隐私”并“敞现”给另一部分人“观看”。这样,至少我们可以进一步提出下面两个问题:
第一,社会成员因“隐私”与“观看”而在总体上被分为两类:无“隐”“私”的“裸在者”与有“隐”“私”的“隐在者”。哪些人、又因何原因而能够成为“裸在者”或“隐在者”?如果一个人有条件能够穿上隐身衣,那么,其就是“隐在者”,否则,就是“裸在者”。如果一个人拥有雷达、望远镜、显微镜等可现实观看的工具,那么,其就可能是“观看者”,否则,就不能成为“观看者”。
如果一个人不仅能穿上隐身衣,而且拥有雷达、望远镜、显微镜等,那么,其就在成为“隐身者”的同时成为“观看者”。如是,社会成员就会因“隐”与“裸”或“隐”与“观看”而在人格上有所区分。这直接带来两个可能后果:一是精神上的高贵与卑贱。那些“敞现”者被那些“隐”且“观看”者鄙视、轻蔑,那些“高贵”的“观看”者并因此而感觉到自身的“高贵”。
二是社会运行中的权力及其支配。那些“隐”且“观看”者,会利用“敞现者”的“隐”“私”控制与支配“敞现者”。不过,隐身衣、雷达、望远镜、显微镜等观看工具,并非所有人都能拥有并使用。哪些人因哪些能力而能够拥有并使用它们?
当然,这些人需以掌握相应资源为前提。他们凭借对资源与权力的掌控有更大能力“隐藏”自己并“观看”他人。赫拉利所言“神人”正是拥有此等巨大权力与资源者。
第二,有两种“观看者”及其“观看”。一是公众彼此的“观看”,二是权力单向度的“观看”。公众彼此间的“观看”以彼此“敞现”、彼此均无“隐私”为前提。这在一般意义上似乎并不会造成彼此人格的等级区别(但是,对人格意识本身的伤害无法避免)。
不过,如果考虑到时、空因素,考虑到时、空错置,那么,它则有可能成为彼此伤害、控制的工具。权力单向度的“观看”,不仅显现了“观看者”及其人格的“优越”“高贵”,而且单向度的“观看”本身就是一种权力及其控制与支配。
4 数据时代的人们可以免于被支配与奴役吗?
人性内在地具有弱点。人性自身并不完美,总是不可避免地具有某种缺陷。正因如此,人才更需要“独处”、与自己同在。当然,人性“缺陷”本身未必真的就是“缺陷”,很可能就只是一种偏好、情感,只不过此偏好、情感本身不仅构成一个人的独特性,而且往往还构成一个人的“软肋”。
“隐”“私”的核心往往是生死命门。《荷马史诗》中的“阿喀琉斯之踵”隐喻的正是人性的这种无法避免的弱点。即便是英雄伟人,也有其“命门”“软肋”。任何一个人要能够挺立于世,不败于世,其前提之一就是深深地隐藏或保护好自己的“软肋”“命门”。
一旦“软肋”“命门”被暴露,就极易被打败、控制和支配。在此意义上,“隐”“私”是生命之门、生死之穴。
支配、控制、奴役有两种方式,一是暴力的,二是非暴力的。暴力强制是较低级的控制、奴役方式,非暴力的则是较高级的控制、奴役方式。没有什么比精神上的控制与支配更为深刻、有效。洗脑、迷信、恐惧、麻醉、投其所好等,均为不战屈人之术。
一个人没有被打倒,似乎并不是因其无敌,而是因对手没有发现其“命门”,没有找到合适的武器。现代数据技术至少在两个方面可以为此提供有效帮助。第一,大数据技术使得那些在前数据时代为“隐”的东西成为“显”的,并可以轻易地找到特定对象的“软肋”“命门”,有的放矢,一招制胜。
任何一个人在大数据技术面前都极其脆弱。告密、监视、跟踪、窃听等传统控制、支配手段,在大数据面前已不足为道。第二,可以通过“读脑术”的反向应用,有针对性、持续地向特定对象输送特定信息,在潜移默化中定向塑造其“第二天性”,使其在不知不觉间愉悦地被控制。控制了数据就是控制了肉身。在数据时代要摆脱被控制、支配的命运,就得有效地保护自身的信息。
然而问题在于:在大数据技术面前,一个人真的有能力有效保护自己的隐私吗?在日常生活中,收集一个人的相关信息须事先获得授权,在此意义上似乎信息收集可控、隐私可保护——当事者不授权即可。不过,即便如此,一个人的数据被收集亦不能为自身控制。
一方面,即便每一环节均获得当事者同意,但往往此种同意是出于某种无可奈何——不同意即意味着不能享受必要的基本服务;另一方面,当事者往往并不能意识到相关数据的可能意义,尤其是无数此类数据被汇集后的意义。
更为重要的是,相关数据的管理与使用正成为我们面临的极为现实和尖锐的问题。究竟由谁管理大数据?由谁有效监督大数据的安全管理?谁能使用大数据?大数据使用是否需要必要审批程序?大数据是否可以完全商业化?如此等等,均是数据时代个人隐私保护所面临的重大问题。
大数据、图像识别、音频识别技术正迅猛发展并被广泛应用于日常生活,它们对人类社会的可能影响远远超出想象。人类须在应对挑战中摸索前行。
以“云”技术为例。“云”计算、“云”存贮、“云”CPU等,正给人们带来巨大便利且许诺有更多便利。但是,相关问题与挑战亦极为尖锐、严峻。
其一,如何保证数据安全与可靠性。在“云服务”出现前,数据拥有者可以通过物理隔断方式有效地保护数据安全。但是,“云”计算、“云”存贮、“云”CPU等“云服务”的广泛使用,则使数据拥有者失去了对其数据的有效保管。
“云服务”以“云”服务提供者的可信任性为前提。此信任有双重含义:技术与美德上的可靠。技术上的可靠意味着安全、不被各种无合法权利使用者使用且能持久有效保存;美德上的可靠意味着能够做到如同承诺的那样保守秘密、不经许可不得使用等。
然而,“云”服务提供者的这种“可信任性”恰恰值得怀疑。就技术方面言,没有绝对固若金汤的保险柜;就美德方面言,“云”服务提供者的美德更是不可靠,因为“云”服务者所拥有的垄断使其处于绝对优势地位。这就带来第二个问题。
其二,如何防止数据垄断形成。“云”技术内在地具有垄断性与吸附性。“云”数据计算、存贮、运行中的无可选择性或极少选择性,使“云服务”提供者处于垄断地位,而“云”技术似乎方便、经济、高效的使用特点又能使使用者愉悦地被吸附。
商业活动中有所谓“店大欺客、客大欺店”之说,政治活动中有所谓“绝对权力、绝对腐败”之说,数据垄断一经形成,“赢家通吃”就是一个无法避免的现象。在既往历史中,人类为了自由在政治生活中反抗专制极权;今天,这种专制极权或许会以一种我们不熟悉的样式呈现:它以对数据技术的控制与垄断为基础,使人们或者愉悦地或者无可奈何地被控制与支配。
甚至经验与理性均令我们不能排除如下可能:即便各种私人信息的收集、使用等均经过当事人授权,但由于社会已经形成对数据技术的依赖性,以及无其他有效可替代物,此种授权往往是无可奈何的“不得不如此”。人们的隐私或者是在不知情中,或者是在不得不自愿的授权中,随时“敞现”。
其三,如何保证数据使用范围的合理与安全。在数据时代,一切都被数字化且相关信息在理论上可以永久保存并被反复使用。一个人日常生活中的诸多信息,如医疗、行踪、个人偏好、交往范围、思想倾向等,都处于公开、半公开化:只要进入特定系统就可以一览无余。
原本使人得以有体面与尊严的遮羞布被一层层地扯下。人们越来越“裸在”,越来越无隐私与秘密可言。人们或者麻木,或者因意识到自己原本应有的尊严而羞愧。
大数据内在地包含着巨大支配权力。任何拥有大数据的实体都是可能的权力实体。社会应当就究竟如何收集、持有、使用、监管大数据,如何有效保护数据隐私权等问题,尽早展开公开讨论,形成某种基本文化共识,并在此基础上构建相应法律规范框架。
数据隐私危机在根本上是人的存在危机。作为时代精神的哲学不能脱离时代,否则就没有生命力。哲学对数据技术的反思,并不是要做现代技术的反对派,而是要做现代技术健康发展的促进派,以确保现代技术应用坚守在人、人性的范围内。