AI年代人类自我认识的哲学审视研究

点击数:176 | 发布时间:2024-11-08 | 来源:www.mvvuu.com

    目前的AI(ArtificialIntelligence,人工智能)技术呈现出一种“元”能力,这种能力使其在解题过程中不再遵循固定算法,而是“通过感知运动界面得到的直接经验和通过语言界面得到的间接经验”,依据具体状况进行剖析和处置,获得解决问题的能力。AI的进步正在使其行为愈加像人类的认知过程,大家需要从哲学层面考虑这种技术的进步对人类自我认知、社会角色和伦理价值的影响,与在新的年代中怎么样维持和提高人类的主体性地位和价值。人类的自我认知是大家理解个体在世界中的地方、角色和目的的基础,AI技术的进步怎么样可能改变大家获得常识和理解世界的基本办法?在科技进步中,人类是不是仍然维持其作为道德和决策主体的核心地位?人的主体性地位是被强化还是被削弱?在人与机器愈加紧密的互动中,大家是面临持续的冲突,还是在寻求一种新的“共在”状况?这类问题分别从认识、评价、理解的角度考察人类自我与世界的关系,是人类自我认识过程中需要回答的问题,也是本文试图厘清的问题。

    1、认识论:人机智能的深层同源及其挑战

    认识论(epistemology)是关于人的认识的学说,AI科学与哲学认识论密切有关。20世纪70年代,已有学者指出:“AI问题不止是一个科学问题,而且是一个哲学问题,由于它在认识论中处于特殊的地位上,这个特殊性是:它把主体的认识能力转化为认识客体,然后对之进行认识与模拟。”从社会观来看,AI作为人类认知过程中的一种扩展工具或方法,它辅助大家构建和拓展常识体系,在社会生产范围中可以部分代替人类劳动,是生产力新的组成部分,也可以视为新的社会生产关系的内容。从认识论维度解释AI,可以有不一样的角度和办法。通常来讲,AI是用计算机科学和其他有关范围的常识,去模拟和达成人类的智能和认知功能。AI的研究者需要探讨人是怎么样认识世界的,与怎么样用计算机语言和算法来表示和处置这种认识。因此,AI与认识论有着密切的联系,也遭到不一样的哲学流派和看法的影响。

    人类智能是一种基于生物神经系统的自然现象,它可以感知、理解、创造和改变世界。在认识论上,人类智能与AI有着“同源”基础。经验主义觉得常识源自感觉经验,如洛克觉得人的心智原本是一块白板,由经验注记其上;休谟区别了印象和观念,觉得“大家的全部简单观念在初出现时都是来自简单印象,这种简单印象和简单观念相应,而且为简单观念所精准地复现”。在信息技术年代,数据可以视为经验的一种形式,它通过原始感官的输入,让人的感知系统记录,再由心智加工、理解和整理形成常识。理性主义则觉得常识的获得不依靠于感觉经验,而由理智和演绎推理独立获得。如笛卡尔就指出人类具备的一些先天观念,如上帝、自我等都是由理性直接认识的。康德则试图调和经验主义和理性主义,指出“尽管大家的所有常识都是以经验开始的,它们却并不因此就都是从经验中发源的。由于非常可能,甚至大家的经验常识,也是由大家通过印象所同意的东西和大家固有些常识能力(感官印象只不过因素)从自己本身中拿来的东西的一个复合物”。

    康德区别了两种认识能力:感性和知性。感性是同意表象的能力,知性是通过表象认识对象的能力。直观和定义构成了大家所有常识的要点。相对于经验主义,在理性主义这里,仅有数据本身并不足以构成常识,还需要内在逻辑和理性推理将数据转化为真的的常识。实用主义觉得,常识的价值在于它对实践的有用性和适用性,而不在于它是不是符合某种绝对的规范或真理。如詹姆士觉得真理是可以满足人类需要和利益的观念,而不是与现实相符合的观念;杜威觉得常识是一种解决问题的工具,而不是反映事实的镜子。在实用主义者那里,数据的实质应用能力更为要紧,数据在被应用于解决问题时成为常识。据此,AI年代的人类应该依据不一样的情境和目的,选择比较合适的常识和办法,而不是拘泥于某种固定的体系或原则。结构主义觉得,常识是由一些基本的元素和规则组成的结构,这类结构反映了人类的心理和文化。如索绪尔将语言视为符号系统,由音位、词语、语法等组成,这类都是人类思维的产物;列维-施特劳斯则觉得人类的神话、仪式、亲属规范等都是由一些常见的二元对立和转换规则构成的;皮亚杰则强调常识要通过个体与环境的互动来构建。在结构主义的框架下,数据就不是简单、被动地被个体接收,而需要通过个体的认知结构主动构建成常识。这也启示AI年代的人类应该揭示和剖析这类结构的内在逻辑和功能,与它们怎么样构成和影响人类的意义和行为。而后结构主义则觉得,常识是由一些不稳定和多义的符号组成的文本,这类文本是由权力和欲望所塑造和支配的。

    如德里达觉得语言是一种无限的追溯和推迟,它没固定的中心或意义,而是不断地被解构和重构的I0。在后结构主义看来,人类应该批判和解构AI年代这类文本的假定和隐喻,与它们所隐藏和排除的意义和可能性。从经验论到理性论,乃至其他现代哲学流派,大家可以看到一个一同论点:人类的认知过程一直涉及感知、记忆、思维、情感、意志、行为等环节,同时遵循着每个学科特定的规律和办法。然而,在AI技术的影响下,这类认知环节和规律正历程着深刻的变革。具体来讲,在算法语境下,经验主义可以基于感官数据(如来自传感器或网络的大量数据)提炼模式和规律生成常识;理性主义可以凭着算法高效的计算能力,尝试设计一类型似人类“考虑”过程的算法,在决策拟定中提供基于逻辑和概率的建议,评估可能性和风险;结构主义可以使算法通过学习数据中的关联性,构建起对世界的认识模型(如机器学习中的模型),而这种模型或许会影响人类的世界观,譬如通过算法过滤的信息流可能塑造大家对某一事件的理解;实用主义关注实质功用,那样通过算法在医疗、金融、教育等各范围的应用就能提升工作效率,优化资源分配,并能够帮助解决现实复杂问题,这也体现了常识的实质应用价值。当然,大家也需要看到算法因数据偏差而加大了现有社会结构和权力的不平等,譬如通过算法决定的信贷评分可能对某些群体不利;算法或许会导致一种“过滤气泡”效应,即大家倾向于接触那些确认自己预先持有看法的信息,致使常识的范围受限,与对现有看法的挑战和质疑降低,等等。虽然传统认识论看法没直接涉及现代算法,但,通过将它们应用到算法的背景下,可以帮助大家更好地理解在数据驱动的世界中常识怎么样形成并被验证和应用,与算法怎么样从根本上改变大家的认知过程。

    机器智能作为一种基于人工算法和硬件的人造现象,可以模拟、学习、优化和实行任务,它的诞生以20世纪40到50年代“图灵测试”的提出为标志。随后在50年代到60年代,符号主义与规则系统的代表学者,如约翰·麦卡锡等人提出了“AI”定义,倡导通过符号逻辑推理达成AI。在60年代到80年代,专家系统和常识表示的代表学者纽厄尔与西蒙开发了“逻辑理论机”,初次将计算机运用到数学证明中。专家系统开始出现,倡导通过常识库和推理机达成特定范围的智能决策。在80年代到90年代,神经互联网的代表学者如Rumelhart和McClelland提出了BP神经互联网定义,神经互联网被觉得是一种真的可以用的人工神经互联网模型。伴随计算能力和数据量的提高,神经互联网渐渐成为AI范围的研究热门。20世纪末,行为主义AI出现,其代表人物布鲁克斯提出“智能需要一个身体”的看法,同时一系列仿生机器人,如Genghis、Cog、Baxter和Sawyer等相继问世,引起了广泛关注。21世纪以来,深度学习和强化学习基于神经互联网,通过多层次的神经元模拟达成对复杂数据的特点提取和分类。强化学习则是通过与环境的交互来学习最佳方案,主要应用于游戏、机器人等范围。可以看出,人类智能和机器智能流派之间存在着肯定的对应和影响关系,比如,符号主义受理性主义和逻辑实证主义认识论的启发,倡导AI来自于数理逻辑,即通过逻辑符号来表达思维的形成,用符号、规则和逻辑来表征常识和进行逻辑推理,偏爱规则和决策树算法;联结主义受经验主义和结构主义认识论的启发,强调仿人脑模型的开发,它主要通过神经元之间的联结关系来构建人工神经互联网,并偏好用神经互联网算法,具备好的信息处置能力,但缺点是在互联网练习中需要很多的时间和计算资源,且一般缺少可讲解性;而行为主义则遭到具身认识论和进化论认识论的启发,觉得认识是基于环境的互动过程,用感知—行动循环来模拟人的行为和适应能力,通过强化学习来达成智能,但缺点是对大量数据和高效算法的需要高、很难处置抽象和符号化问题、缺少可讲解性和可信任性与很难保证其行为的安全性和道德性。因此,自21世纪以来,各流派间有合作互融的趋势,譬如联结主义与符号主义结合,在处置感知任务时主要依靠神经互联网技术,而在进行推理和任务实行时则主要使用基于规则的办法,使系统可以在感知、推理和行动方面达成有限的智能化或人机交互功能;再譬如将来的算法融合,以最好组合的元学习为主导理论,构造无所不在的服务器,基于通过多种学习技巧获得的常识或经验采取行动或作出回答,等等。

    现在AI年代算法已成为获得、处置和理解信息的主要方法,同时算法的进步也对人的认识能力、认识方法提出了新的挑战,算法能否完全代表或超越人类的认知能力,与算法决策的合理性和伦理性等问题成为算法进步、应用和演进过程中的重点性问题。伴随AI技术渗入到平时生活的很多方面,从搜索引擎的用法、个性化推荐系统到自动开车和智能家居系统,特别是机器学习和深度学习的突破推进AI技术在教育、医疗诊断系统等的应用,AI技术应用好像已无处不在。在实质应用中,因为专用AI目的单1、建模简单等特质,AI甚至在某些范围超越了人类,比如ChatGPT与Google用LaMDA模型构建的聊天机器人等生成式AI,通过学习大规模数据集生成新的原创内容,让计算机系统可以自主地生成各类型型的数据。这种功能强大的机器智能也给人类带来深深的忧虑,因为机器智能本质上还是模拟、学习人类智能,虽然它能依据强大的算法和大量的数据不断优化自己,在某些方面可以更好地实行任务,但假如不加约束,也会把一种有着根本缺点的语言和常识定义纳入技术,势必会减少人类的科学水平,贬低人类的道德标准。

    人类智能和机器智能都是信息处置的过程,它们在数据来源、表征方法、计算腏健⒛勘晟瓒ê图壑蹬卸系确矫娲嬖诓钜欤且部梢韵嗷ビ跋旌痛俳?从以上AI未来发展趋势便可看出,人类智能和机器智能正在达成融合,即人类和机器在智能上的互动和协作,AI开发者需要依据人类智能的认识论办法和逻辑帮助改进现有些人工智能逻辑,修正达成常识处置的形式理论,从而增强其表征能力。事实上,AI与人类智能的融合正在通过不一样的方法和层次来达成,人机交互、人机增强、人机融合等都是其表现形式。当然,它们的融合存在着很多可能和挑战,譬如AI技术的进步可能超出人类已知认知机制的理解力,激起人类认识到自己认知机制所具备的某些隐蔽特质,它们可以提升人类的认知和能力,促进社会的进步和进步;但同样也会引发社会伦理危机,威胁人类的尊严和自由,譬如一个非常不错理解的例子,当大家习惯于用云数据的有关关系剖析法取代“因果关系”,便会出现“宝贝不止一件,每一个数据集内部都隐藏着某些未被挖掘的价值”。大家甚至会由于马上做某事,但事实上并未行动而提前遭到惩罚。“云数据告诉大家‘是什么’而不是‘为何’。在云数据年代,大家不必了解现象背后是什么原因,大家只须让数据自己发声”。那样,AI必然会对人类智能导致遮蔽效应,譬如过度依靠AI可能削弱人类的考虑和解决问题能力;AI算法的不透明可能致使用户没办法理解其决策过程,从而在一定量上遮蔽了决策的逻辑和合理性;AI系统可能继承或放大练习数据中的偏见,而这种偏见可能影响大家对社会现象的理解,等等。若是如此,海德格尔所说“技术或许会叫人类对存在的理解变得单一和贫乏”就快要成为现实。AI已经改变人与世界的互动方法,这类变化也会促逼着大家探索数据与“常识”关系问题的深度和广度,迫使人类重思人类智能本质中的“真”。而人的本质总归要立于技术之上的,人类要在技术变革中把握住人类自己的变革。

    2、价值论:人是人的主体性地位的主宰

    从价值论(axiology)的角度重塑AI年代人与世界的关系,目的是通过考察由云数据价值生产带来的信息价值所引起的人的价值观的改变,审视与考虑人的主体性问题。强AI年代的潜在到来,标志着AI已经成为这个年代强大的生产工具,将推进着人类劳动发生深刻变化。从政治价值、经济价值与社会价值、文化价值等方面来看,AI带来了很多可衡量的价值形式,但同时,它的进步也面临着太多的不确定性与不可衡量性。从价值论维度看,AI年代前后,人和世界的关系发生了从以人为中心到以智能为中心的转变。AI技术的进步,不只影响了人类的生产方法和生活方法,也影响了人类的思维方法和价值取向。人类可能需要重新审视自己在世界中的地位和角色,与对智能的概念和评价。人的主体性地位是不是被挑战?人的意向性目的活动是不是被技术目的性取代?关于人的主体性地位是不是被挑战的问题,大家第一需要对主体性有明确的认识。在哲学中,主体性(subjectivity)是与主观经验、个人视角、情感、信仰与个体意识有关的多面定义。主体性常与客体性(objectivity)形成对比,客体性指的是独立于任何察看者的事物的性质或状况。在伦理学范围,主体性涉及到价值判断和道德决策怎么样遭到个人信念、欲望和文化背景的影响,与个体怎么样认识自己作为有意识的存在者等问题。而在马克思主义哲学中,主体性被重新概念,强调个体意识、主观能动性和社会关系的紧密联系。马克思在其早期作品中对技术引发的人的异化现象进行了探讨,揭示了技术怎么样影响人的主体性能力。譬如他在《哲学的贫困》中讨论了分工的道德影响问题,特别指出了其有害的一面。他引用了斯密的老师亚·弗格森的看法,“甚至可以怀疑一个民族的一般能力的增长是不是同技术进步成正比率。在若干门机械技艺中……没任何智慧和情感的参与也完全能达到目的,正如无知是迷信之母一样,它也是工业之母。思索和想象会产生错误,但手或脚的习惯动作既不靠思索,也不靠想象。所以可以说,在工场手工业方面,其最健全之处在于不需要脑力参与,因此,不费任何思索就能把作坊看作一部由人构成的机器……

    一位将军可能是十分精通战争艺术的人,而士兵的全部价值却只不过完成一些手脚的动作。前者之所得可能就是后者之所失……在这所有都互相离别的时期,思维的技艺本身可以自成一个独立的行业”。现在的AI年代竟几乎复刻了这个现象,在充斥着AI商品的日常,大家甚至都不需要参与到社会生活劳动中,手脚的动作也已被取代了。马克思曾指出现代工业史上那个值得注意的现象,即“机器消灭了工作日的所有道德界限和自然界限”。放眼今日,机器智能商品可以在黑暗、冰冷的空间24小时不间断地生产,无需提供以往需要提供给工人的适合的工作环境,显然技术已将这种现象进行到了极致。伴随算法和云数据的结合渗入到大家日常的每个角落,成为大家生产生活必不可少的元素后,这类AI技术的应用便会给人的劳动、社交、思维能力等导致不可估量的损害。根据海德格尔的理解,“对人类的威胁不仅来自可能有致命用途的技术机械和装置。真的的威胁已经在人类的本质处触动了人类。集—置之统治地位咄咄逼人,携带一种可能性,即:人类可能已经不能逗留于一种更为原始的解蔽之中,从而去经验一种更原初的真理的呼声了”。他觉得技术致使了一种“框架化(Ge-stell)”的存在状况,即大家被技术的用法和效率思维框定。通过海德格尔的技术哲学看法可以看出,现代技术不止是一种工具,更是一种世界观,一种将自然界视为无限资源的待榨取“存货”的方法。技术揭示(entbergen)的方法促成了一种“集置”(dasGestell),即为人类与世界的关系设置了一个框架,这个框架或许会威胁到人的主体性,由于它将人置于技术系统的统治之下,而不是作为自由行动的主体。当然,海德格尔并不是简单地反对技术,而是批判现代技术的这种揭示方法,由于它限制了大家与世界相遇的可能性。他觉得,通过“集置”,技术创造了一种以控制和优化为目的的存在方法,而非开放于事物自己展示其意义的可能性的方法。他对“集置”的批判更像在揭示,是技术遮蔽了其他非支配性的揭示方法,使得人类丧失了对自然和技术的深思能力,进而成为技术系统的从属,而不是它的主宰。他担忧在“集置”模式下,大家失去了与世界的本真关系,即以更和谐、尊重的方法与世界相处的可能性,而这种以技术为中心的揭示模式会致使人类与世界的关系变得单一化,并损害了人类的自主性。

    无疑,技术第一是一个好东西,那为何技术进步会损害人的自主性呢?说到底还是人类自己扔掉了人的自主性、道德性。为何不少人担忧AI会形成独立意识,甚至取代人的主体性地位?有AI伦理学家甚至提出AI道德进步会历程操作性道德、功能性道德和充分的道德主体三阶段论,而第三个阶段就是计算机可以自己做道德决策的阶段,这里显然存在对道德定义的误解。在中国传统伦理文化中,“善”第一是个体的自觉,儒家倡导的君子人格,不需要涉及到别人,“善”是“好”的常见化,每一个人凭内心就能知道何为“好”,而不取决于其做了一件好事还是坏事。从这个意义上讲,机器根本不可能成为道德主体。至于AI技术范围预测的超级AI与将来学家库兹韦尔提出的奇点理论是否会到来,又会不会像乐观主义者构想的那样,计算机足够智能,它们可以理解自己的设计,甚至可以通过改进对自己的设计而变得更聪明,这样迭代更新,终将会依赖自己的智慧进化成神一样的存在?即使AI的计算力如摩尔定律那般呈指数式增长,那定律所提到的物理极限问题呢?还有“指数爆炸”问题呢?对待这类担心,或许可以从哲学中寻求解答,“对AI的本质不可以仅从它的强大的数字计算功能来理解,它的工具性和人为性只是其本质的一种异化形态,而真的的本质是人类智能的‘去蔽’和‘成己’”。

    除此之外,哲学家们还从技术哲学视角探讨了技术伦理和技术责任,譬如米切姆的办法论就提供了一种全方位理解技术的框架。他倡导不只要关注技术物品本身,还要关注技术常识的进步、技术活动的社会实践,与技术背后的动机和目的,技术哲学的任务是在对技术的各类型型进行剖析的基础上,探讨技术与人类生活的关系,与技术对人类的价值和意义的影响。科技的进步终归是以人为中心,人总要借着掌控自己可控的变量,来研究自己不可控的对象。也就是说,科技的进步一定要依赖人的主体性的发挥,当然也包括着对未知世界的敬畏和打开,人一旦丧失了主体性和对未知的探索精神,只顾当下,只关注“此时此地”,每一个人都活成了肤浅的信息复制传播机器,那样世界和人自己也就不“存在”了。

    3、存在论:人机冲突还是人机“共在”?

    从存在论(ontology)层面讨论AI年代人机关系,不是讨论AI商品“在”与“不在”的问题,而是对AI年代人与技术怎么样共处进行追问。在AI年代,“共在”意味着一种更深层次的互动关系,AI不止是工具,它可以与人交流、学习,甚至可以预测和理解人的需要。根据前文所论述,可知AI技术与人之间应是“一体两面”的关系,即技术进步的过程也是人进步自己的过程。但现实情况好像并非如此,AI和虚拟现实技术的结合正在改变人类对现实的感知,“抹去”人与世界的联系。5G年代,大家对时间即时性的需要愈加高,在处置事情的时候会由于即刻性未被满足而恼火,忽略人与人、世界之间一些具体的关系。人在不一样的即刻中被裹挟着往前走,同情、理解渐渐消失,情绪化、极端化十分容易见到。人的情绪也是即刻性,没办法转化为行动,信赖和意义系统被高度集中化,大家不是去信赖简单的人与人之间的关系,反而是集体去信赖某一个定义,譬如某支付系统等。用超社会性、生物性的理性计算等科技办法作为意义的基础,去组织生活、生产,随着着的是人的感情、自信,甚至是自我意识的消失,不再去相信个人能力,对生活的理解也变得单一化,如何在这种情况下重建个人的价值、尊严?非常显然,个人价值和尊严的建构不在于个人,而在于关系,需要大家去重构“附近”,通过重新考虑人与世界的关系以确证人的存在。因此,从存在论层面论证人机是不是可“共在”,是AI年代考察“人与世界”关系的另一个要紧维度。

    存在论在哲学范围是研究存在的本质、结构、分类和存在者之间关系的学科。它涉及对“有哪些存在”(whatthereis)和“存在是什么”(whatitmeanstobe)的基本探询。在哲学史上,思想家们对存在论提出了各自的见解和理论。依据海德格尔的说法,自柏拉图以来的哲学年代是“存在的遗忘的年代”。在柏拉图之前,自然哲学家已经讨论了“存在”问题,他们说世界的本原是“水、火、气、无定、四根”等,这类本原是有生命的力量,可以生成和显现万物。海德格尔觉得这类才是对存在本真的揭示,他们关注的是本原怎么样生成、显现和结合,而不是某种凝固化的东西。但自巴门尼德起,特别是到了柏拉图这里,这种关注就消失了,哲学家们不再探讨存在的生成和显现,而是将存在者当作存在来研究。海德格尔从存在论层面提出了“此在”定义,强调了人是作为存在论意义上的存在者,他批判地借鉴了现象学的办法,即在世界之中探索此在的存在结构。这里的“世界”是“此在”意义上的世界,通过此在在“去存在”过程中得以呈现。海德格尔在这里揭示出了存在论意义上的人与世界的关系,即人自刚开始就是和世界浑然一体,通过与世界的勾连,人自己得以展开和显现,而这个过程又造就了世界本身,即世界是此在在和周遭的所有勾连后,所呈现出的所有关系的总和。大家从这个意义上来考察AI年代“人与世界”的关系,便不难看出,AI年代出现的人的价值和意义缺失问题,根源在于人与周遭世界的勾连被技术遮蔽了,技术取代了其他存在物,成为“此在”唯一的“器具”。对此在而言,在和技术这个“器具”交际的过程中,技术就从“上手之物”变成了“现成之物”。那此在在与其他此在交际时,其他此在不可以是“上手之物”,更不是“现成之物”,他们之间是一同存在的关系,是“共在”状况。试问,在AI与虚拟现实技术结合的年代,虚拟实体与“此在”有什么关联?此在与虚拟实体之间是“共在”关系,还是此在与器具的关系呢?

    当大家讨论这类问题时,大家探讨的是虚拟实体的“存在”状况与它们怎么样被理解、经验和影响现实世界。虚拟世界作为现实世界的一种扩展或模拟,挑战了传统存在论的界限。大家回看海德格尔的此在,是一种为存在本身而存在的存在者。此在不是一个固定的实体,而是一种存在的方法,一种在世的状况。此在一直作为它的可能性而存在,它对我们的存在有所领会,有所作为,有所追问。此在是一种开放的、创造的、超越的存在者,它可以揭示存在的多样性和神秘性。而虚拟实体,是一种由数字技术创造的虚拟人物,它们具备人类的形象、行为和思维,同时也有着超越人类的特质和能力。虚拟实体可以在虚拟世界中自由行动、交流和学习,也可以与真实的人进行互动和合作。虚拟实体可能不是真实的人的虚拟形象,也可以是完全原创的角色,或者是基于名人、卡通、游戏等的形象。从这个角度来看,虚拟实体好像具备一些此在的特点,譬如开放性、创造性、超越性、存在的领会和追问等。但,这类特点是不是足以让虚拟实体成为此在呢?这就涉及到一些更深层的问题,譬如,虚拟实体的存在是不是依靠于数字技术的支持?假如没了技术,虚拟实体还存在吗?可以参照柏拉图的理型(forms)或理念的定义考虑,理型是非物质的、永恒的真实存在,与感官世界中的事物相对立,对于柏拉图来讲,虚拟世界更像是对理想形式的一种较为低级的模仿。在洞穴比喻中,柏拉图揭示了人怎么样被感官欺骗,生活在影子世界中,人一旦离开洞穴,影子世界便也没有了。当然,AI与虚拟现实技术的结合之下的虚拟世界比影子世界高级很多,大家甚至会在虚拟世界与现实世界的切换中,渐渐将二者混淆,模糊了界限。就像笛卡尔提出身心二元论,对可知性持怀疑态度那样,大家也会提出“我如何能确定我目前历程的是真实世界而不是某种虚拟现实?”这样这般的考虑。笛卡尔在《第一哲学沉思录》中提到了邪恶魔鬼思想实验的怀疑论的办法,他假设有一个强大而狡猾的魔鬼,可以控制大家的感官,让大家以为自己看到、听到、触摸到的所有都是真实的,而事实上都是魔鬼制造的幻觉。如此,大家就没办法确定大家所认识的世界是不是真实存在,也没办法确定大家的身体是不是真实存在。笛卡尔的目的是通过这种极端的怀疑,来探寻一个不可动摇的真理作为哲学的基础。他最后得出的结论是“我思,故我在”,也就是说,即便魔鬼可以欺骗大家的感官,但他不可以否定大家的思维的存在,由于思维是大家存在的证明。那样,虚拟实领会不会拥有思维呢?

    在思维和存在的有关问题上,不能不提及康德的物自体理论。在康德看来,人的认知方法是只有当心灵遭到外物刺激时,人才能凭藉直观而直接与对象发生关联,从而获得所有思想认识的质料。这个刺激心灵的“外物”,康德称之为“物自体”,它是感觉和知觉的外在缘由。而“现象”是大家的感觉予料,通过直观形式(空间与时间)被把握到,是依存于主体、可认知的对象,“物自体”则是永远处于人的认知能力以外的“对象”。大家通过先天具备的直观形式只能得到“现象”而不可以触及“物自体”,所以时空又被称作“玛雅之幕”(叔本华语),它叫人们根本没办法认知“物自体”。那样由AI技术塑造的虚拟世界,是否现象的另外一种形式?在虚拟世界里是不是有另一个“物自体”?从康德的理论可以推出,假如虚拟世界存在另一个“物自体”,那样需要拥有的基本条件就是AI机器需要有独立的认知能力,通过直观形式与对象发生关系,从而获得常识质料,也就是康德在“先验感性论”中揭示的“现象与物自体”的内在张力。非常显然,AI技术下的虚拟实体只不过物理实体的数字化复制,并且只不过模拟了物理实体的外观和行为,并没完全复制其内在属性和机理,甚至即便是作为物理实体的现象,现在还是有所偏差,毕竟虚拟世界的条件和规则与物理空间也不同。人类和AI技术之间更像是一个硬币的两面,这两面是相反相成、相互依存的,人类可以认知并在一定量上学会现实世界,但对将来技术的进步则是不可知、不可控的。正如康德在“二律背反”中所展示的,知性一方面没办法直接认知那些本原性的存在,如自由和上帝;其次,知性又不断地追求对无限进步的常识法则的理解,并且驱使大家探索那些超越经验的问题,比如自由和本原性的创造力。这种探索反映了人类认知能力更深层次的驱动力。康德对待这个矛盾的态度是提出“先验理念”的好的、正当的、内在的作用,积极打通可知世界与不可知世界的阻隔,打造常识与价值的联系,并促进常识向价值转化。“我把理念理解为一个势必的理性定义,它在感官中是不可以有任何与之重合的对象的。所以大家目前所考虑的纯粹理性定义就是先验的理念。它们都是纯粹理性的定义,由于它们把所有经验常识都看作是由诸条件的绝对总体性所规定的。它们不是任意虚构出来的,而是由理性的本性自己发出的,因而是与全部知性运用势必有关的。最后,它们是超验的,是超出所有经验的界限的,所以在经验中从来不会有一个和先验理念相符合的对象出现”。先验理念本来有其好的、正当的、因而是内在的作用,虽然在误解它们的意义而把它们当作实在事物的定义时,它们在应用上就成为超验的了,而且正是因为这个原故,它们就能成为欺骗人的了。康德给大家的启迪是一直以人的精神世界和价值世界的健全为思辨和实践追求的目的,大家对未知之物的追求要既是思辨的又是实践的,是常识与价值的结合,才是相对达成了人类对真善美的追求。

    至于虚拟实体会不会拥有真的的思维,至少在目前的科技水平下,没办法得出一定的答案。从康德对思维与存在关系的探讨中可知,人类理性特有些主体性和自主性,是人与机器的本质不同。缺少自我意识和道德感的虚拟实体或AI,其“思维”不可以被视为真的的思维。但,从人类对未知之物的追求角度来看,人类应该积极探寻以人为中心的AI(humancentric)的存在状况,而不是试图压抑或隐藏一种可能性。换句话说,AI和人类和谐相处,不是他们各自的单独表演,而是相互依靠,彼此协同的人机共存状况。

    4、结语

    在AI和机器学习飞速进步的当下,大家不禁要问:所有这类技术创造,是不是真的减轻了大家的平时工作负担?尽管这类先进技术显著提高了生产力和效率,好像帮助大家处置了不少曾被觉得费时和精力的任务,大家一般也对关于其益处的讨论更有兴趣,但技术可能带来的负面影响也紧密关联着大家的生活,甚至触及人的存在价值和意义。马克思在剖析自动工厂的分工对工人的影响时指出,把机器“看做使被分散了的劳动重归统一的合题,真是荒谬之极。机器是劳动工具的集合,但决不是工人本身的各种劳动的组合”,在机械技艺取代手工劳动后,加剧了社会内部的分工,在每个需要高度灵敏性和精准性操作的地方,都由专门的机械取而代之,工人的专长、权威等不会再复原。他还引证了尤尔博士的论述,觉得人类天分的弱点就是人越熟练,就会越有主见,越难于驾驭,对机械体系来讲就越不适用,由于他的任意妄动都会给整个机械体系带来莫大的损失。所以,要“通过科学和资本的结合,将工人有哪些用途减少到仅仅用他们的注意力和灵敏性,而只须把他们固定在唯一的对象上面,他们在年轻人时期就比较容易使这两种能力达到健全的程度”。类似的看法还有很多。哲学家们一直在深思,为何在古时候,一个人既能够是杰出的哲学家,同时又是杰出的演说家、政治家、历史学家、军事家,可以有这样多方面的活动?反观目前,每个人都给自己筑起了藩篱,把自我束缚其中,大家在享用智能机器商品时,到底是扩大了活动范围,还是缩小了大家自己呢?可以看出,在面对AI年代的哲学探讨时,大家正站在一个技术与人类价值观交汇的十字路口。

    在认识论层面,AI技术通过算法和数据集重塑大家认知世界的方法,已经不止是工具性的扩展,而是开始介入常识的构建过程。大家目前依靠机器学习模型来发现模式、进行预测并做出决策,这类模型的运作一般超出了人类直观理解的范围。因此,大家需要要问:假如认知过程被算法化,大家是不是仍能维持对世界的真的理解?从价值论层面来看,数据的价值生产可能致使人的主体性的缺失问题。在数据驱动的社会中,个人总是被简化为数据集合,这或许会侵蚀到人的自主性和个性。大家需要深思,怎么样在借助数据提升效率和生产价值的同时,保护个人的主体性和尊严。而在存在论层面,AI与人类智能的“一体两面”关系呈现了人类智能的可扩展性和机器智能的辅助用途。大家需要考虑的是,AI的辅助会不会在某种程度上转变为主导,从而使人类从世界认知的主体变为被动同意者。在这类探讨中,大家面临的核心问题是:在人与世界的关系中,人是不是还维持着唯一的主体地位,与大家是不是应当从人的伦理价值诉求出发来干涉和指导科技的进步。通过探讨,大家至少可以笃定,在人类自我认识的进步中人需要是唯一的主体,科技进步也需要遭到人类伦理道德的约束,即“感性(见费尔巴哈)需要是所有科学的基础。科学只有从感性意识和感性需要这两种形式的感性出发,因而,科学只有从自然界出发,才是现实的科学”。而这一数百年来指导人类探索科学的精神,在AI年代亟需恢复。不止是由于技术的理性需要遭到伦理的约束,更是由于技术的进步不应脱离人的感性需要和感性意识。大家应当鼓励以人为本的科技进步,确保技术进步服务于人类的全方位福祉,而非只是效率和产出的最大化。

  • THE END

    声明:本站部分内容均来自互联网,如不慎侵害的您的权益,请告知,我们将尽快删除。

专业院校

返回顶部

Copyright©2018-2024 中国考试人事网(https://www.bzgdwl.com/)
All Rights Reserverd ICP备18037099号-1

  • 中国考试人事网微博

  • 中国考试人事网

首页

财经

建筑

医疗