AI正在“占领”职场,人类能适应吗?

神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

编者按:人工智能作为如今的一大风口正日新月异地发展着。虽然我们已然接受了人工智能,但并未对其有着深入的了解,而且我们对人工智能的反应也存在矛盾之处。人类真的能与人工智能和谐相处吗?展望未来,科技行业从业者需要像关注技术本身一样,关注人类对人工智能的反应。

AI正在“占领”职场,人类能适应吗?

[Source illustration: PM Images/Getty Images]

过去的一年见证了人工智能领域的飞跃。数百万人突然开始与人工智能聊天机器人 ChatGPT 进行类似人与人的对话,并使用 Lensa 等应用程序制作机器生成的肖像。ChatGPT 最近还通过了一位教授的 MBA 考试。一位计算机科学家甚至用人工智能,为一整本儿童书籍创作了文本和插图。

人工智能也正在接管我们的工作场所。它通过将日常任务自动化,以及综合和汇总信息,使人们的工作更加容易。虽然一些员工对效率的提高表示欢迎,但也有人担心有一天科技可能会完全取代他们。甚至有人猜测,最近科技公司的裁员潮,可能与人力资源等部门的任务日益自动化有关。专家们还担心人工智能会被用来监视员工,以及担心人工智能会通过学习人类言论,来重现一些糟糕的偏见。

人工智能技术的每一次进步,都与古老的人类心理学发生着碰撞,导致我们以复杂且往往相互矛盾的方式做出反应。我们喜欢可穿戴设备 Fitbits 和智能手表,但讨厌保险公司利用这些数据来定价或预测我们的健康结果。我们为那些可以帮助残疾人重见光明或重新行走的未来科技而欢呼,但对军方使用同样的技术来创造超级士兵的想法感到反感。我们经常把短期的技术采用和其长期的后果看作是不同的事情,而它们实际上是一个硬币的两面。

这意味着,我们的心理冲动和认知偏见使自己很容易采用新技术,而随着时间的推移,这些新技术会创造一个我们可能并不喜欢的未来。在过去的 20 年里,我们张开双臂拥抱 Facebook 和 Twitter 等社交媒体平台。直到现在,我们才意识到这些平台可能会影响我们的世界观、传播错误信息和仇恨言论,甚至会影响选举结果——但为时已晚了。

作为南加州大学马歇尔商学院(USC Marshall School of Business)的行为科学家,我在自己的研究中看到了这些矛盾。当研究人们如何思考新技术以及如何与新技术互动时,我惊讶地发现,人们对人工智能的反应是多么矛盾和不一致,而且我们经常未能充分考虑到后果。

例如,我和合作者进行了两组关于“工作场所人工智能”的研究。在其中一项研究中,我们发现,当监控由自主技术而不是人工进行时,员工会更愿意在工作中被监控——考虑到人们对被他人评判(或控制)的根深蒂固的恐惧,这是有道理的。在监控过程中把人的因素剔除,会让我们觉得没有被他人评判得很厉害,因此我们有更大的自主权。

然而,在第二组关于“招聘和晋升决策”的研究中,我们发现员工更喜欢由人类做出决定。尽管人工智能的决策和结果是相同的,但人们认为算法不太公平,并质疑其考虑定性信息或上下文信息的能力。相反,我们希望能够向另一个人讲述自己的故事,而且相信他们能够更好地理解其中的细微差别,并给我们一个公正的评价——但这也可能会导致我们拒绝那些有可能纠正人类偏见的算法。

这些下意识的反应值得注意,因为这表明,我们对技术的感知和反应方式可能与技术本身一样重要。随着人工智能变得越来越强大,我们不仅要投资技术设计,还要提高我们自己的“技术商”(相对于“智商”而言,指我们对技术的理解和做出明智决定的能力)。

简而言之,我们需要更好地客观评估技术在生活中的利与弊。目前,我们的反应取决于人工智能的呈现方式,以及我们与生俱来的认知偏见和心理上的合理化。例如,我们会优先考虑刷 Snapchat、TikTok 或 Instagram 带来的多巴胺冲击,而不是这些平台对隐私或情感健康潜在的长期负面影响。这种现象被称为“双曲线贴现”(我们的心理倾向是选择眼前的满足,而不是等待未来更大的利益)。

规范和期望也很重要。如果你注册成为一名 Uber 司机,那么你会期望你的路线由机器分配,你的评分由算法监控,这都是交易的一部分。相比之下,一个突然得知自己将被算法管理的办公室职员可能会对此更加犹豫和怀疑。但是以上这二者明明都是人工智能在工作场所的应用实例,人们明明没有理由相信,一种监视形式会比另一种更有害。

人们对技术的反应也因其用途而异。在上述研究中,我们发现,当公司使用人工智能监控数据,为员工提供有用的反馈时,比用这些数据来评估员工的表现更容易被员工接受,即使在这两种情况下追踪的是同样的数据。我们经常没有意识到的是,一项技术的“理想应用”和“非理想应用”往往是齐头并进的。

那么,我们该怎么办呢?为了进行我们迫切需要的关于人工智能的智能社会对话,我们需要更深入地了解人类心理是如何驱动我们采用技术的,以及技术是如何反过来塑造我们的心理的。背景和框架如何影响我们对一项新技术的反应?哪些认知偏见妨碍了我们对人工智能的清晰认识?对人工智能的依赖会如何改变我们理解世界和与世界互动的方式?

这些话题还没有得到充分的研究,但我很高兴看到,像我在南加州大学尼利道德领导与决策中心(Neely Center for Ethical Leadership and Decision Making)的同事们这样的研究人员,用他们的研究加速了我们的理解。学者们不仅在关注科技的危害,还在研究我们该如何利用社交媒体和虚拟现实等技术,来促进人类的长期繁荣。

展望未来,科技领导者需要像关注技术本身的设计一样,关注人类心理对人工智能的反应。同样,采用人工智能的经理和公司也应该考虑员工的反应,并让他们了解情况,而不是突然实施新技术。建立和维持信任是至关重要的。

随着人工智能的加速发展,人类的未来正处于再平衡之中。我们的选择和行动的后果是巨大的。让我们认真对待这一责任,把人工智能作为一个复杂的谜题来对待,而不是孤立地看待谜题的“好”或“坏”的部分。我们必须提高自己的“技术商”,以确保与人工智能建立更积极的关系,并最终创造一个更美好的未来。

译者:Jane

本文地址:https://www.cknow.cn/archives/17047

以上内容源自互联网,由百科助手整理汇总,其目的在于收集传播生活技巧,行业技能,本网站不对其真实性、可靠性承担任何法律责任。特此声明!

如发现本站文章存在版权问题,烦请提供版权疑问、侵权链接、联系方式等信息发邮件至candieraddenipc92@gmail.com,我们将及时沟通与处理。