三大全球顶尖科学家眼里的ChatGPT:未来是人机共生的二元社会

ChatGPT一夜爆火,这款人工智能聊天机器人可以写出以假乱真的大学生作业,可以通过谷歌程序员面试,能给总统写发言稿。 仅推出2个月,ChatGPT月活用户突破1亿,Instagram做到这个量级,用了两年半,TikTok用了9个月,而ChatGPT只用了2个月。

一时间,从使用者,到投资人,一股狂热的人工智能风刮了起来。 谷歌紧急发布对话式机器人”Bard”(吟游诗人),百度也宣布将发布中国版人工智能聊天机器人程序“文心一言”。随 着诸多巨头加码,AIGC(人工智能自动生成内容)领域或将成为2023年最值得关注的的热门赛道。

AI领域知名畅销书《暗知识》著作王维嘉,在硅谷从事人工智能创业投资30余年,他提出,人工智能为什么能写出比很多普通人写得都好的作文,这是因为人类通过学习明知识进步,AI通过学习暗知识做判断,而暗知识的体量相比于明知识是巨大的。

在全球人工智能领域专家,香港科技大学首席副校长郭毅可看来,AI的发展势不可挡,现在是ChatGPT的惊艳,未来会有更多震惊世人的AI。当下的社会是人类一元社会,未来的社会是人机共生的二元社会。

加州大学伯克利分校教授Pieter Abbeel,在ChatGPT的公司OpenAI担任研究员,他揭秘了GPT的算法,更是一种减少标签的无监督的深度学习,训练量小,却比高度专业化训练做得更好。

在中欧创业营和创投营的课堂上,三位全球顶尖的人工智能领域专家分享了自己对人工智能和AI深度学习的见解。

AI为何能成长得如此迅速?这跟机器人的学习方式有直接关系。人类通过学习明知识成长进步,而机器人则通过暗知识学习做出判断,而暗知识的体量要远远大于明知识,这也是ChatGPT短时间给的回答比人的回答更“准确”,更“有趣”的原因。

1、学习人类的知识反而是AI的累赘?

不管是ChatGPT还是其他,所有机器人的鼻祖要属AlphaGo,其打败世界围棋冠军一战成名,第一次将“人工智能”的概念被推到风口浪尖。

AlphaGo的学习原理是这样的,它把人类历史上几万盘残局学习了一遍,按照人类的路子把人类围棋大师打败了。

有趣的是,谷歌工程师又打造了AlphaGo Zero,不去学习人类的经验,而是直接告知围棋的规则,让机器人自己练习。经过多次练习,AlphaGo Zero只用了一天半时间就把原来的AlphaGo打败了。

这件事对人类自信心的打击非常之大,震撼也非常大。

它说明了,在某些情况下,人类的知识不仅没有用,反而是累赘。机器人不学习人类的棋谱,反而下得更好。没有人能说清楚为什么AlphaGo Zero不学人类的经验,反而比人类下得更好,这在人工智能上叫做“不可解释性”。

很多人工智能呈现出这一特性,比如,机器人可以预测出来这个股票明天涨,至于为什么,机器人说不出来,它只是从大数据中得出了这一结论。

这给了我巨大启发,我开始提出这个问题:“会不会有一类知识是人类根本无法理解的?”这一问题乍一听似乎是悖论,其实答案是肯定的,这一类知识就叫“暗知识”。

传统认知里的知识都是可以用符号表达的。而今天机器学习是一种暗知识,暗知识本质上就是大量数据之间的相关性。因为系统太复杂,变量太多,已经远超出人类小脑袋瓜的认知能力。但变量越多,机器学习就越得心应手。无数的机器将不知疲倦地昼夜工作,很快我们就会发现,机器新发掘出来的暗知识会迅速积累,这才是人工智能、机器学习带给我们最革命性的变化。

2、大部分行业还没有开始被AI改造、颠覆

如今的AI已经发展到可以跟你顺畅地聊天,下一步,人工智能能做什么?我认为,其产业生态是一个金字塔结构。

最顶端的,我称之为“皇冠”,是算法。人工智能过去十几年能突然火爆,一个重要原因就是在算法上取得了突破。算法虽然是最核心、最重要的,但是它的市场很小。我看了很多算法公司,最后都没投,原因是不知道怎么变现。如今的算法主要集中在高校和大公司里,新的算法一经发表,就成了公共财产,每个人都可以去做。大公司甚至将算法做成开源系统。

第二个层面是芯片;不过其研发成本高、风险大、垄断性强。

第三个层面是软硬件平台;类似计算机操作系统的东西。

最下方的是应用层面;这里的市场规模是最大的,目前大家是投的也主要集中在应用方面,包括大众比较熟悉的自动驾驶、图像识别、语言文字翻译、医疗制药、垂直市场,这里面还包括意外市场。

什么是意外市场?当一个新技术出现的时候,人们对它应用的想象都是线性的。比如说当汽车出现,大家能想象到它会把马车替代掉,但实际上汽车产业给人类带来的变化不止于此,有了汽车以后,高速公路形成网络,人不需要挤在城里了,大家都搬到郊区后,大的购物中心也建起来了。这一系列变化是汽车刚发明的时候想象不到的,这就是我所谓的意外市场。

目前AI只是莱特兄弟刚刚把飞机飞离地面,离5马赫超音速还很远。从市场上看,目前受到AI冲击的传统行业还很少,大部分行业还没有开始被改造、被颠覆,因为 AI 从业者都忙乎进入那些没有传统巨头的行业,如人脸识别和自动驾驶等。但是不可否认,AI的想象空间依旧很大。

3、三个标准判断行业是否会被人工智能颠覆

ChatGPT可以写论文,可以写发言稿,眼看着越来越成熟。随着ChatGPT的大火,更多人在担忧:我的工作会不会被AI替代?

人工智能、机器学习比较容易进入什么样的行业?很简单,三个判别标准,

第一,这个行业会产生大量的数据;没有草,牛吃什么?怎么能挤出奶呢?人工智能是建立在大量数据的基础上的。

第二,数据之间有非常复杂的关系;如果只是把空气净化器工作的噪声记录下来,这也是数据,但是这个数据非常简单、单调,没有意义,只是单纯的噪音。有意义且关系复杂的数据,人类处理起来非常艰难,而人工智能就能发挥作用。

第三,这个行业有大量可以改进的地方;也就是说,整个生产服务流程里,还存在非常低效的地方,人工智能可以大大提效。

我们不说AI代替人工,更多是从AI是否可以服务该行业,而用这三个标准去判别就可以知道什么行业适合人工智能,比如金融行业就是特别适合,无论是证券、保险和理财都满足以上三个条件,所以用机器学习就可以在这个行业有很好的应用。

人工智能的时代已经来临,在大家为ChatGPT表现出来的“超人类”或者说“类人类”水准大为赞叹的同时,更多人有着隐约的担忧,AI发展得这么强大,写的作文都可以通过考试,那会不会替代人类?

实际上,关于人类与AI的共存问题,长期以来都有讨论,而 这不仅是一个科学家的问题, 更是一个社会科学家需 要思考的问题。 我们 对AI社会 的预测 大体上可以分为三类观点:

第一类是悲观主义;认为AI发展壮大后,人类社会将出现灾难性变局,因为人类的工作都会被AI替代。

第二类是乐观主义;认为AI足够成熟以后,人类都不需要工作了,AI可以养活我们,人类完全可以活得更愉快。

第三种是谨慎乐观主义;他们认为AI的发展并不会取代所有的工作,但AI确实提高了人类社会的整体技术水平,会给未来社会带来了新的社会结构和生活方式。

不管人类对AI的态度如何,不可否认的是,未来社会中AI一定会扮演极其重要的角色。麦肯锡的报告预测,未来十年是很有意思的十年,因为AI将改变所有人的生活。报告预计大概到2030年,GDP高的国家,比如美国、英国等,25%左右的工作会被取代,中国稍微低一些,大概16%左右的工作会发生变化。

现在机器在干什么呢?牛津耶鲁推出的《机器人人文时刻表》已经出炉。

这个时间表非常清晰,2024年,机器可以写程序了。2026年机器人基本上可以写高中水平的作文,清华大学制造的机器人参加高考,已经能考到二本高校的水平了。到了2027年,世界上会有最有名的40首流行歌曲,不是人写的,是机器写的。2028年AI可以拍电影了,2049年中华人民共和国成立一百周年的时候新闻都是机器写的。到了2050年,机器可以赢世界的数学比赛。2059年,基本上数学都将没有了,机器来做数学研究。

很重要的一点是,今天人工智能的发展不仅仅是体力上的替代,比方仓储机器人,更可怕的是机器已经走向了人文社会,形成了一个像人一样有社会功能的元素。

从这个角度上说,未来人类的社会将是二元社会,现在的人类社会是一元社会,只有人类,人类在整个食物链的最高端的,其他都是被我们“吃”掉了,而未来不一样,按照这个趋势,未来社会会出现两元,除了人类,另外一元就是机器人。

而在人机二元社会里,不仅有人跟人之间打交道,人跟机器也在打交道。在互联网的环境中,你交流的对象到底是一个人,还是一台机器,往往都无法严格地区分清楚。

我们习惯跟机器人一起做决定,比如开车离不开导航,人和机器一起合作达到了目的地。包括前段时间成为热门话题的蚂蚁集团,所谓的芝麻信用就是利用机器来决定要不要借钱给某个特定的人。

如今AI的应用非常广泛,大致可以分为四类:

逻辑推理;比如说计算机可以下棋,可以看医学图像,这些辅助做决定的都属于逻辑推理。

计算机视觉;国内也叫做人脸识别,如今广泛使用的自动驾驶、安防解锁等都是基于此。

智能语言处理;现在通过计算机可以生成新闻稿、文章,甚至进行一些艺术性创作,比如诗歌。

语音识别;手机里与Siri的互动就是典型的语音识别,包括微信上语音讲一句话便可以翻译成文字,这些都是语音识别的范畴。

未来人工智能的发展充满想象空间,也是一个大的方向,我大胆预测,未来世界就是人机共生世界。然而其中一大不可忽略的问题就是伦理原则,它不是一个技术问题,是一个科学问题,更是一个哲学问题。说到底我们需要关心的是,人工智能伦理到底是外在的还是内生的?

外在的做法,是把人工智能的伦理作为一个要求放在效用盘里,告诉机器应该做这个,不能做那个。

内生的做法,是在人工智能系统里面给出一系列基本原则,要求机器只在这个基本原则下优化行为。

今天为止,我们采用的都是外在的做法。不过内在的做法其实是更优解,就像从小教育孩子要做好人,把做好人的原则告诉你,然后你再学习,你就能举一反三,难以形成危害。埃塞俄比亚飞机失事事件就是人工智能行为伦理外在的悲剧,让自动驾驶的机器不能做这个、不能做那个,当有不在清单里的特殊情况出现时,机器的判断和人的判断不一致,这就出了问题。

今天的人工智能还做不到这一点,人工智能只能告诉你答案,但是不能告诉你,我是如何得到这个答案的。今天的人工智能不强调因果,实际上是一个很重要的缺陷,将来是要弥合的。

ChatGPT,是美国人工智能独角兽OpenAI推出的一款产品。OpenAI推出的AI产品不只有ChatGPT,还有Muse Net,GPT-3,DALL·E等,这些产品一经发布就震惊业界。

GPT(Generative Pre-trained Transformer) ,中文翻译是“生成型预训练变换模型”,它模拟人类的“神经网络”去学习,就像一个小宝宝一样,被“喂养”的数据足够多,见识多了,这个宝宝就成长成为能跟你聊天对话的状态了。

具体来说,OpenAIGPT的算法更多使用的无监督深度学习,训练量少,却表现很好,背后是怎样的逻辑?我们先从机器人的深度学习说起。

一、使用更少标签无监督的深度学习

无监督的深度学习最有可能使用,但是成本高又投入大。如何省时、省钱、又省力地实现,是如今被关注的重点。

AI可以跟人一样,就是让神经网络像小婴儿似的,通过广泛看世界来学习,而不是把所有的标签范例都给它看。 无监督的深度学习就是用更少的标签来学习。

例如一个输入,小孩子还在看图片,神经网络处理时,任务1就进入视频下一帧,并且可以预测下一个会看到什么。虽然任务较难,需要很多学习,但是这项任务不需要给任何数据加标签,通过大量视频让网络预测下一帧是什么,需要使用无限多互联网上的数据。任务2真正的任务,比如看马路上现在有没有车或是往来实物。

文本也可以这样处理。

比如一句话或一段文章,任务1是预测下一个单词。任务2是预测情感,是OpenAIGPT-2的算法,也是一个神经网络,主要针对文字和文本预测。

首先给出一个提示,算法会告诉它接下来会干什么,接下来又会发生什么,做了这样一个训练以后,还可以进一步,给它带一定正面或是负面的情感。

OpenAIGPT-2的算法,记录表现好,训练量小,需要人的努力少,比高度专业化训练做得更好。

谷歌也有与GPT-2类似的算法,是BERT模型,当中有一个MASK是遮蔽,把单词遮蔽起来,让算法猜,也是一种非常自由式,无监督的深度学习。 对比之下,在所有基准里相对其他算法,谷歌BERT模型表现更好一些。

以下每一张图横轴是神经元网络大小,越往右表示神经元网络越大,纵轴越往上走绩效表现越来越好。

人工智能领域最重要的趋势是神经网络越大绩效越好。无监督深度学习找数据很简单也不需要投喂,可以尽情享用互联网资源,就有足够数据可以训练。

自然语言处理(NLP),是AI下一个五年,非常大且会改变一切的领域。

二、超越模式识别AI深度强化学习

1. 深度强化学习:有目标的AI

例如你想拥有一台机器人,让它在家里给你提供清洁、洗碗、烧菜等等服务。目前可以造这样一台机器人,但是还需要让它足够智能。足够智能的机器人必须要了解,整个世界是如何运作,能够在真实世界里面生存。

同样,在市场营销、广告宣传以及运营物流等行业也是如此,各项工作都是一个闭环,需要先感知世界,得到反馈后再对应调整行为,再去感知,再去反馈,再去调整,循环往复的一套系统,能够让机器人更深层次了解这个世界,而不仅仅只是表面一个模式的识别。

2. 有关深度强化学习的成功案例

深度强化学习非常难,但是已有一些鲜活且成功的迹象浮现。

2013年深度学习发现神经网络可以打游戏,其原理就是处理图像做决策。有所不同的是,训练它去玩这些游戏,练得越久游戏水平越高。 在伯克利有一个学习运动能力的课让机器人学习,就像人的小时候一样,先练习走、快走、慢跑等不断迭代慢慢学会跑步。

3. AI应用于现实

① 节能

谷歌也在训练神经网络,管理什么时候打开或者关闭数据中心空调,以节省很多能源成本。

② AI机器人

OpenAI的展示说明,如果机器人有足够多训练和练习,甚至可以单手玩魔方。

AI机器人技术是进入现实世界的切入点。

在仓库分货的机器人就可以完成仓库幕后工作,具体的流程操作会转型成自动履行订单。 随着深度强化学习越来越娴熟,机器人在现实中可以完成更多工作。

据统计,每年有两万亿美元,支付于需要用手完成的工作中。目前已经在训练机器人做这些工作,它的现实价值就达到每年有两万亿美元,高于绝大多数人的年薪。

4. 深度强化学习的战略

① 机会

以目标为导向持续改进AI。

基于网络用户互动,可以优化大规模系统。

在目标明确但创作内容不明确的情况下,加快创作进程。

机器人不断试错以提升自身技术。

② 操作系统

奖励系统+AI专家团队+算力+“执行中”数据收集,相当于及时让机器人学习,让它一边做一边实践一边收集数据。

③ 前瞻性战略

需要找更多早期应用案例模拟环境,而且成本也相对容易控制。另外,如果已有人工完成,可以先拍摄下工作场景,再示范引导和训练机器人。

我相信,只要持续做AI,每天都在生成更多数据,AI一定会有持续的新发展。

AI的创新仍有很多可能性,会继续释放出更大算力,近年实验规模也是呈指数级增加,我预测未来:

算力资源未来至少还有5-10年的快速增长。

将有可能完成以前无法进行的实验。

AI领域将快速取得更多突破性成果。

AI的颠覆性优势是未来极有可能不再有车祸,人类在数学、物理、化学、生物等领域将有新的探索,还可以帮助我们消除许多疾病,并助力人类完成创举,比如去火星。

但不可否认的是,AI也会带来诸多负面效应,比如虚假新闻或故事、缺乏隐私保障的社会环境、部分工作岗位的消失,另外还可能造成财富极度聚敛于领先的AI公司。

※本文根据三位嘉宾在中欧创业营创投营课程分享整理而成。

原文链接:https://36kr.com/p/2143814724206345

本文地址:https://www.cknow.cn/archives/13861

以上内容源自互联网,由百科助手整理汇总,其目的在于收集传播生活技巧,行业技能,本网站不对其真实性、可靠性承担任何法律责任。特此声明!

如发现本站文章存在版权问题,烦请提供版权疑问、侵权链接、联系方式等信息发邮件至candieraddenipc92@gmail.com,我们将及时沟通与处理。