科技

哇ChatGPT会加剧人类自欺这位复旦教授的哲学分析太惊人了

T是一种能够进行人工智能自动问答的技术,它通过复制“常人”的意见并将其进行机械化的复制,从而实现自动问答。然而,从哲学角度来看,这种技术有着主要的缺陷,即加剧了“自欺”的现象。这种自欺是指人们在使用ChatGPT进行问答的过程中,信任它所给出的答案,而在忽略掉事实的情况下,自我欺骗,从而导致了对事实的误解。复旦大学哲学学院教授徐英瑾曾在北京电子科技学院作为博士生导师工作,他的研究方向在于人工智能哲学和英美分析哲学。他主持了多个国家级、省级项目,例如国家社科项目“基于信息技术哲学的当代认识论研究”。在徐英瑾看来,要理解ChatGPT的本质并不是一件困难的事情,但这种技术所产生的“自欺”现象值得我们深入思考。表达或一个正确的论证,只是由某些特定的符号表示出来的机械化运算。这种机械化运算缺乏对情境、文化、历史和道德等多方面因素的考虑,因此很难真正理解中文诗词及其深刻的思想内涵。徐英瑾认为,这种机械化的训练方式使得人工智能系统存在着“自欺”的风险,进而加剧了人类“自欺”的现象。徐英瑾是一位在北京电子科技学院担任博士生导师的哲学专家,同时兼任中国知识论专业委员会副秘书长和中国现代外国哲学专业委员会理事。他领导了多个国家级、省级项目,例如国家社科项目“基于信息技术哲学的当代认识论研究”。尽管ChatGPT作为一种神经网络技术的进阶版,有着广泛的应用和深远的意义,但它所存在的“自欺”问题也需要我们认真思考。在人工智能领域,所谓的正确表达或论证往往是由大多数人所认可的意见决定的,因此,一些“异类”所提出的“离经叛道”之说则很容易被人工智能过滤掉。这也使得我们必须高度警惕人工智能训练中存在的“自欺”问题。北京电子科技学院的哲学专家徐英瑾指出,若是ChatGPT技术在托勒密的时代出现,哥白尼的“日心说”可能就永远被视为错误答案。另外,由于人工智能训练与当下存在时间上的差异,“无法面对未来”成为了ChatGPT等人工智能的最大瓶颈。过度依赖ChatGPT可能使人失去对未来的把握能力和反思力,进而陷入过度“自欺”的境地。因此,若想真正走通人工智能道路,需要在结合节俭性算法与推理引擎的基础上,兼顾哲学思维带来的“破”与“立”。徐英瑾认为,“大数据的训练很难让机器对语境形成精准识别,如何突破语料的伪装,真正识别人类的精神内核,人工智能仍在路上。”本文来源于中国青年报客户端,责任编辑为邱晨辉。自动驾驶汽车无疑是人工智能技术发展的重要应用之一,然而,随着自动驾驶汽车出现的各种问题,这一领域也面临着越来越大的挑战。北京电子科技学院的机器人专家杨少华对此表示,当前自动驾驶汽车的技术发展虽然已经很成熟,但是整个系统的稳定性仍然存在问题,一旦发生故障,可能会对交通带来不良影响,也会给乘客和行人造成安全隐患。因此,如何确保自动驾驶汽车的安全性,依然是一个亟待解决的问题。

 

与此同时,自动驾驶汽车背后的人工智能技术本身也需要不断创新和发展。杨少华认为,人工智能技术的未来应该是以人为本,注重人机交互,实现智慧出行、智慧城市等。这需要哲学、心理学等多学科知识的交叉运用和创新,也需要技术人员们不断深化对人性和社会的理解。自动驾驶汽车的发展虽面临着各种挑战,但我们相信,经过科技人员们的不懈努力,未来的自动驾驶汽车将会更加安全可靠,为人类社会带来更大的福祉。本文来源于中国新闻网,图片来自观察者网,版权归原作者所有。