当前位置:首页

【字体:放大 正常 缩小】 【双击鼠标左键自动滚屏】

登录日期:2024-01-26 【编辑录入:ych】 文章出处:《文汇报》( 2024年1月26日 第9版)

人类如何与AI“智慧共生”?
ChatGPT元年之后,人工智能已具备改变生活和工作方式的能力
作者:张三石/编译  阅读次数:1371

原标题:AI重塑世界,人类如何与其“智慧共生”?

AI.jpg


AI1.jpg

  过去一年,人工智能(AI)凭借大语言模型的爆火迅速进入大众视野。它比以往任何时候都更强大,也更具亲和力。这不仅给未来生活带来了新希望,也在人们心中蒙上了一层担忧——AI将如何重塑我们的世界?
      
  即使以目前的发展水平,AI也已具备了改变人类生活和工作方式的能力。然而,以其迅猛的发展速度,我们几乎很难预见将来它可以做什么、又会带来怎样的影响。在ChatGPT元年之后,如何应用AI、怎样应对潜在风险、如何与之和谐共处等问题的重要性日益凸显,值得进一步讨论和深思。

      
       ■张三石/编译
      
  一年多前ChatGPT的诞生,宣告着生成式人工智能时代的到来。现在,只要接入互联网,任何人都可享受各种AI工具带来的便利,这些工具几乎能回答从论文撰写到计算机编程、从图像生成到艺术创作的任何问题。
      
  这一切是否代表我们朝着超级智能——通用人工智能(AGI)又迈进了一大步?目前尚无定论。然而,即便当前的技术还没有走到AGI,也足以对经济、教育、文化等领域产生深远影响。未来5到10年,人工智能将如何重塑世界以及你我生活?我们应该如何应对这些改变?站在AI时代的门槛上,这是我们必须要思考的问题。
      
  工作会否被AI替代?先要学会运用AI
      
  有专家预测,生成式人工智能将显著提升发达国家的生产率并带动经济增长。根据高盛集团去年发布的一份报告,未来10年内,生成式AI有望给全球GDP带来每年7%的增量。
      
  这份报告称,通过大幅降低劳动力成本、创造新的就业机会,以及提高生产效率等,生成式AI有望大幅提高劳动生产率。尤其在未来几年,它将显著提升包括科学家、编辑、律师和医生等在内的数百万知识型劳动者的工作效率。这类似于早期通用技术(如电机、个人电脑等)引发的劳动生产率的飙升。
      
  然而,加拿大多伦多大学教授阿维·戈德法布表示,生成式人工智能在就业领域引发了很大焦虑,但这次的情况可能与之前办公自动化所引发的焦虑有所不同。之前,计算机技术的进步在取代打字员或收银员等低薪工作岗位的同时,提高了高等教育劳动者的生产率,“但这一次,AI正在挤占高收入群体的工作岗位”。
      
  戈德法布指出,所有工作都实现自动化有点不切实际。人工智能通常可以协助完成那些耗时的琐碎任务,例如撰写电子邮件或浏览文件。因此,自动化使工人能够解放双手,腾出时间从事更有价值的工作,“对于大多数人来说,它将成为一位高效的帮手”。
      
  由谷歌、脸书、IBM、亚马逊、微软于2016年共同成立的非营利机构——AI合作组织倡导负责任地运用人工智能。该组织工作人员卡佳·克林诺娃指出,技术的部署方式在很大程度上决定了其应用的可靠性。她认为,AI工具可以成为员工的个人助手,促进员工集思广益,并将想法转化为实际行动。然而在另一方面,企业可能会将这些工具视为降低劳动力成本的一种方式,并依赖它来生成营销材料、计算机代码或图像等内容,从而减少对人力资源的需求。克林诺娃表示,由于人工智能的迅速发展,现在越来越难以确定需要给员工培养哪些技能。
      
  不过,在人工智能对教育产生的深远影响中,至少有一些方面是积极的。尽管人们对学生利用AI工具完成作业表示担忧,但美国斯坦福大学的维克多·李指出,这是一个转变考试方式的机会——从仅关注学生的写作能力,转向考察其更为复杂的能力,比如比较、批判、调整和改进等。此外,教育辅助机器人可与学生进行合作和辩论,从而为教学改革提供新的可能性。
      
  维克多·李指出,在将人工智能融入教育时需要谨慎,因为这些模型可能会从训练数据中吸收偏见,并频繁编造或“臆想”事实。因此,学习如何使用这些工具对未来的职场人至关重要,“不了解如何运用人工智能的人,将被那些熟练掌握AI工具的人所取代”。
      
  AI会否摧毁人类?不如关注现有风险
      
  英国牛津大学的叶卡捷琳娜·赫托格表示,将智能聊天机器人与语音助手结合,有望让AI进一步融入个人生活。一个聊天机器人就可取代搜索引擎,在购买日用品、预订酒店、查找医疗建议等日常任务上发挥作用,但这仅仅是聊天机器人应用场景的冰山一角。
      
  赫托格说,工程师已经开始探讨如何使用聊天机器人为用户提供宣泄情绪的空间。不过,这种做法的危险之处在于,用户可能会对令人信服的智能聊天机器人产生过度依赖,容易受到其误导和虚假信息的影响。
      
  2023年5月,被称为“人工智能之父”的计算机科学家杰弗里·辛顿辞去了在谷歌的职务,并就人工智能构成的“生存威胁”发出警告。人工智能安全中心随后发表了一封公开信,由辛顿和其他数百人签名,警告说先进的人工智能可能会摧毁人类,“遏止被人工智能灭绝的风险刻不容缓”。
      
  这种不断发酵的担忧,一部分源自ChatGPT等系统的快速发展及相互竞争——科技行业正不计后果地加速AI能力的升级。
      
  然而,这种恐惧目前似乎还缺乏充分的依据。相反,许多专家提醒,对于长期世界末日情景的担忧,会分散人们对现有人工智能带来的直接风险的注意力。
      
  一般而言,认为AI存在风险的人觉得,随着AGI的到来,机器将会超越人类的思维。他们预测,先进的人工智能将被赋予更多自主权,使其能够利用重要基础设施,如电网或金融市场,并有可能置身于战争前沿——在这种情况下,它们可能会变得不受约束或企图以其他方式摆脱人类的控制。
      
  但是,人工智能是否会达到超级智能?我们是否能够识别出它对人类构成的威胁?英国牛津大学桑德拉·瓦赫特认为,目前还没有科学证据表明AI正朝着产生意识的方向发展,甚至没有证据表明这个方向确实存在。
      
  她进一步指出,如果人工智能最终发展到了AGI阶段,避免将它应用于关键任务系统中并非难事。目前科学家更关心的是,许多高耗能数据中心会对环境造成不利影响。
      
  AI会否出现意识?主动权可能在人类
      
  如果你去问一个智能聊天机器人它是否有意识,大多数时候,它的答案是否定的。“我没有个人的欲望或意识。”OpenAI的ChatGPT写道。“我没有知觉。”谷歌的巴德聊天机器人也这么回答,“目前,我满足于以各种方式帮助人们”。
      
  不过,在美国纽约大学哲学家大卫·查尔默斯看来,在硅晶体管中出现某种形式的内在意识并未完全排除可能性,“没有人可以断言,意识必然伴随什么样的能力才会产生。”那么,我们离拥有意识的机器到底有多近?如果意识真的出现了,又该如何及时察觉?
      
  现在,人工智能已经表现出一些令人不安的智能行为。其中,支撑新型聊天机器人的大型语言模型具备编写计算机代码和推理等功能。但是,仅仅通过扩大大型语言模型的规模,并不太可能让机器出现意识,因为它们只是强大的预测机器而已。增加数据集和复杂度可以使这些人工智能变得更强,但这也不意味着它们会有任何体验或经历。葡萄牙里斯本大学的认知科学家和哲学家安娜·乔尼卡认为,体验就像“经历”,而不仅仅只是“知道”。
      
  通常认为,思维是由身体和感官塑造的,这被称为“具身认知”理论。因此,查尔默斯提出了一种方法,即将大语言模型与具备视听功能的机器人融合在一起。实际上,谷歌去年发布的一款能够感知周围环境并进行互动的智能机器人PaLM-E,就可通过具身认知技术,将藏在抽屉里的薯片递给主人。
      
  不过,数百万年来,人类的思维和身体一直在共同演化。现在只是简单地想通过将机器人与AI系统结合,而让它们变得有意识,这是否在异想天开?
      
  深度学习技术先驱、2018年图灵奖得主约书亚·本吉奥认为,根据大脑信息处理的方式,意识应该是一种客观存在。在加拿大蒙特利尔大学实验室中,他将“全球工作空间理论”应用于人工智能。该理论认为,当多个不同的大脑功能被调动到同一核心场景以解决问题时,意识就会产生。通过克服AI模块之间的瓶颈,他希望在硅芯片上创造类似的场景构架。
      
  然而,爱沙尼亚塔尔图大学的贾安·阿鲁却认为,将大脑比喻为计算机,是忽视了软件和生物体之间的本质区别。伴随经验而来的是生物体保持存在感的冲动,这是与计算机不同的。阿鲁及其团队在最近发表的论文中提到,意识可能取决于参与感。
      
  但有人提出,人工智能中已经出现了原始形式的感觉和情绪,这是通过特定行动获得奖励所实现的。本吉奥说,这种行为强化首先会引发一种类似于人类生存本能的内在驱动力,“当人工智能越来越多地出现在丰富的社会生活中,没有任何因素可以阻止其在社会生活中体验到各种情绪的产生”。
      
  也许,关键问题不在于人工智能是否具备意识,而在于我们为何期望其拥有意识。本吉奥表示,人类应避免试图创造与自身形象相符的机器,将人工智能继续视作工具而非代理人,将更加安全可靠。他说:“这让它们无法扮演人类在社会中所扮演的角色,因为这本质上存在于精神中。”



荐稿人:ych 2024-01-26  执行编辑:ych 2024-01-26  责任编辑:lxl 2024-01-27

0
 

上一篇发力临床应用,脑机接口加速走进现实
下一篇我国科学家突破抗癌药物紫杉醇生物合成难题

相关评论: (评论内容只代表网友观点,与本站立场无关!)
  • 暂无评论
发表评论:

验证码: