• 王巍、水皮、陈宇、郑峻深度畅聊中美人工智能未来趋势

    作者:CMAA 来源: 日期:2024-1-22 15:57:18 人气:5 加入收藏 标签:

    640 (20)11.jpg

    2023年11月17日,当OpenAI(轰动一时的聊天机器人ChatGPT的制造商)的非营利董事会提出解雇山姆·奥特曼。罢免这位创始人时,董事会曾表示,他与他们的沟通不诚实。在奥特曼被逐出公司的4天里,几名研究人员致信董事会,警告“强大的人工智能可能对人类构成威胁”。随后,该公司700多名员工(占员工总数的95%以上)威胁辞职或跳槽,迫使董事会收回成命,其中包括OpenAI首席科学家兼董事会成员伊利亚·苏茨克维。目前,OpenAI的换帅风波暂时平息,但给行业带来的震撼扔在继续发酵。

    11月29日,马斯克公开表示了对OpenAI在人工智能方面发现“危险元素”的担心,同时,他称这可能是该公司董事会试图将CEO萨姆·奥特曼逐出公司的原因。


    由金融博物馆与新浪财经联合出品的中国首档·金融跨界老友谈话节目——「金融博物馆」首期开播。节目主题紧扣人工智能的全球热议话题,邀请到硅谷投资人、互联网公司高管陈宇,《猫叔在硅谷》主理人、新浪科技驻美作者郑峻,沃伦财经创始人水皮,全联并购公会创始会长、金融博物馆理事长王巍,四位新浪知名大V,结合各自丰富的行业经验和犀利视角,共同线上对话,深度解读中美人工智能到底有多大的差距?

    01

    几位新浪大V嘉宾,对国内AI技术创业的热潮有什么看法?

    陈宇先生:

    国内经常频繁去硅谷出差,和现在常住硅谷区别是挺大的,湾区的创业氛围比国内要浓很多,如果你愿意跟人沟通交流,参加各种活动,你可以一周七天每天都不休息,还累得要死地去参加各种活动。从ChatGPT发布以来,这边整个氛围都非常火热,大家都在想各种新的可能性,各种沟通交流非常多,不管是投资人,还是创业者,包括一些学者以及做研究的人。当然,我们也看到了很多过去做元宇宙的、做Web3的人也在往这个方向转,看到了非常多的机会,这个过程中也有很多迷失和很多讨论。最近,OpenAI这个大戏是最受关注的。

    水皮先生:

    因为不知道未来方向会怎么样,特别是对这个事情的背景,还是扑朔迷离,并不知道究竟发生了什么,董事会采取这么激烈的一种行为。所以,大家会对OpenAI、ChatGPT、最终人工智能的走势产生困惑,本来一直也都担心,所以我觉得关注度自然很高。

    据我的观察,更多的是拷贝复制、抄作业,抄得理直气壮,大模型的概念满天飞,现在已经公布的表示正在做的大概有300多个,基本上都是泡沫化的结果,实际原生应用很少看到。最大的问题就在这里,基本上是泡沫化的现象,原生应用的开发基本还是空白。今年以来也是市场上最热的一个概念,从年初到年中,所谓的概念股从三倍涨到六倍,现在已经回落一半,腰斩一半了,估计后面的结果也很难说。所以,我觉得这个事情的影响非常大,主要还是应用前景的问题。

    02

    相比美国硅谷的技术突破,如何来看AI技术在中国的商业化场景落地的前景?人们在硅谷感受到的AI热潮,会带来的行业变动的机会吗?

    王巍创始会长:

    人工智能、ChatGPT,特别是奥特曼的“宫斗”,最核心的是价值观,现在谈到的未来人工智能到底是要先有安全措施,还是先加速;跟着人工智能往前走,边走边找到闸,还是先设闸,这是价值观的问题,导致了内部的冲突,包括马斯克的一种评论。我特别关心,几位都是传媒人和投资者,你们判断下经历了一次“宫斗”事件之后,这个方向会走哪些方向?

    水皮先生:

    我觉得商业场景落地的前景,的确在国内市场是最最合适的,我们对事物的接受和理解、再开发,中国人是擅长的,因为整个市场大,对AI或对未来科技热度的这种追逐,恐怕全世界没有任何一个地方比中国的普通民众或是投资者热情更高。所以,我们会有更多的试错机会,迭代开发也会更快,这肯定是一个国内市场的优势。但能否产生增值效应?能否产生持续的盈利模式?还不好说,我个人觉得大家都意识到的机会未必是真正的机会,大家都能够迅速掌握的技术也未必能够成为盈利的保证。这是现在国内很多公司开发应用会碰到的问题。我不知道OpenAI碰到了什么问题,因为有些人认为,美国的落地场景可能没有中国那么好,奥特曼对公司在持续经营方面有点焦虑,直接导致了与其他董事会成员的理念出现一些对立。

    陈宇先生:

    我觉得从最一开始大家还是有点懵的,觉得出来一个东西,从3.5的Turbo开始出来后,它具有很多功能,但如果作为真正的商业化应用,还存在很多局限性,它的幻觉情况比较严重。国内是有很多机会,现在看到国内有一些特别的机会,是用原生的AI应用,但其实是做出海的市场。我这边又投了一个公司叫Answer.AI,现在已经排在IOS教育榜的前十,经常在前六,相当于可以提供一个AI的Tutor,可以帮助学生做各种各样的题,但不会直接给出答案,会给一些提示。目前,我们可以看见的比较优秀的AI应用,它们的特点大多是只做海外市场,不做中国市场。

    目前在硅谷这边很多人也非常关注这个事情,但以目前结果来看,因为奥特曼是以非常高的威望形态重新回到OpenAI公司,而且成为CEO,他在一个阶段里相当于是妥协放弃,在另一阶段就具备了成为董事的可能性,包括格雷格也都是高调地回去了。我们可以看到山姆·奥特曼主导的相对更偏商业化的方向,肯定会得到更大的认同。但同时,我们看到新的董事会是一个比以前更为均衡的董事会,也有很多老手在这里面效力,包括前美国财长这样的资深人士都在里边。所以,我们觉得未来董事会会更加成熟。这次OpenAI的闹剧80%原因是不太成熟的、不太有经验的董事所会造成的。从这次泄露出来的信息来看,冲突产生有可能的原因之一是OpenAI技术确实有了比较大的突破。最近有传言说OpenAI在数学方面已经可以真的去做一些非常初级的数学题了,它是以正常推理的方式,而不是说预测下一个字符的方式,这是非常革命性的,因为之前我们测了很多,不用的人不知道。

    郑峻先生:

    这次“宫斗”之前的董事会包括3名外部董事和3名公司的内部董事。其实在今年年初的时候,应该是9名董事,今年年初的时候连续3名董事辞职,直接导致了董事会互相制衡架构的失衡。在未来的董事会重新组建之后,这可能会找到双方都可以接受的人选,可能会建立一个比较均衡的、双方都能认可的董事会。这次之所以引发OpenAI董事会和员工或高层的极度对立,主要因为目前这3名董事员工不是很认可,其中一位是CEO,还有2名,一个来自学术界,一个现在已经不在AI领域。今年年初辞职的这位董事,包括Reid Hoffman,这些都是比较重磅的。如果Reid Hoffman不走的话,他可能就会主持得更加公道,让大家更加信服。这次找的Bret Taylor,他在硅谷被公认是比较能够讲公道,大家都可以接受、可以信任的人选。

    03

    马斯克和奥特曼都出现和董事会意见冲突,出现过被撤退、被调整的情况。为什么技术天才都留不住?科技进步创新与公司治理架构是不是本身就存在强烈冲突?在资本市场中,什么是成熟的董事会?

    水皮先生:

    这个问题最早出来我并不是关注技术层面,也不是关注道德风险,我恰恰关注的是它的ESG,就是公司治理。因为我有一个节目是《ESG会客厅》,这种事情在中国是不可思议的,在中国投资者看来是根本不可能发生的,中国基本上是一股独大,过去是国有企业一股独大,现在是民营企业一股独大,基本是家族治理的模式,它跟现代意义上的公司治理,公众公司治理模式跟架构相差甚远。我们一向把华尔街、把美国的公司治理,当做现代公司治理的样板来参照,尤其是它的董事会。所以,刚才谈到董事会成熟不成熟,其实是一种主观的判断标准,以美国上市公司董事会的架构为例,外部董事占多数,而且是没有股份的董事占多数,由董事局主席邀请,其实前面提到的董事会构成也是这些创始人或者奥尔特曼、或者董事局主席他们自己邀请的。邀请来之后,发生了所谓的“宫变”。不管是价值观不同、三观不同,还是对公司的决策方向不同,而恰恰这是最有价值的地方,它能构成制衡,不是让一个人说了算,哪怕你再有能力,思想再先进,如果不能为现在的团体,至少被这个房间里的人所接受的话,我们就要出来说道说道,你一个人说了不算,而且我们还可以让你走人。让人走人背后的原因到底是什么?是不是理想主义与现实的冲突?那是另外一回事,我们可以再讨论是否有道德风险。现在OpenAI、ChatGPT的开发,碰到了当初克隆人的现象,碰到了伦理问题。

    实际上最根本的,我觉得如果要有冲突,要有风险,如果要是对人类的进化或者对人脑构成挑战的话,我们现在就面临着一个克隆的问题。从理论上来讲,技术上是ok的,但能不能干?能不能走这一步?这是一个非常重大的问题,足以影响到人类未来的问题。所以,我认为这个时候发生冲突是对的,将冲突公开也是对的,引起全社会的讨论更是对的,无论如何,不同意见充分听取之后,因为这跟大家都有关,实际上就不是一个OpenAI本身公司内部的事务了。进一步扩大层面来讲,第一点,我觉得发生冲突之后咱们要按规矩来,奥特曼说你开除了,那我就走人。他没有像国内公司那样打砸抢、抢公章,像李国庆那样把公章拴在裤腰带上,他没有,大家认赌服输。在同一个议事规则里,如果我不占上风,不能说服大家,那好,我走人。我觉得这个事情至少当事各方总体上来讲,还是都有君子风度的,这对中国的上市公司、公司治理,我觉得还是很有启发意义的,遇事咱们要讲规矩。

    王巍创始会长:

    为什么我也同意水皮这个判断?首先“宫斗”最大的意义是把价值问题提出来,包括公司治理结构、人工智能对人类社会的发展,我觉得奥特曼也好,马斯克也好,大家都在关心今天人工智能已经突破到今天,突破到今天之后,它对整个技术发展,包括产业、经济结构调整,甚至政府基础设施都有巨大挑战,这样的情况下,安全优先还是创新优先?又出现了这个问题。我为什么要谈这个问题?现在金融工作会议刚刚在谈“安全是最大的事情”,奥特曼的事情出来之后,会让国内同行特别关注,我们如何来把握人工智能发展中的问题、隐私权的问题、数据泄露的问题,甚至数据投毒,包括很多人工智能幻觉,这些错误的东西,现在中国几百个model出来了,上千个大模型全出来了,我们看国外,实际上是在看我们的下一步。

    04

    从华尔街角度来看,人类是否要干预人工智能下一步的发展?

    郑峻先生:

    这次关于奥特曼跟董事会产生矛盾的一种解释就是因为其中一名外部独立董事在今年6月份,在很有影响力的《外交》杂志上发了一篇文章,呼吁美国政府加强对AI的监管,导致奥尔特曼跟他出现一些矛盾,可能还有一些争执。这可能是一种解释,美国也在拟议出台各种关于对AI监管的制度,制定一个框架,哪些东西是应该做的,哪些东西是需要在做之前就设定一些限制的,这是包括政府监管方面的一些限制。AI公司方面,像OpenAI在创立之初就是想解决AI技术的发展和安全隐私以及未来是否失控的问题,马斯克找了几个技术专家,几个人一起创办了这个机构。后来他们一边做AI的技术研发,一边在进行安全、隐私方面探索技术研发,包括今年首席科学家做了一个超级对齐(Super alignment)的项目,抽走了OpenAI当时20%的算力,对OpenAI的商业化影响挺大,就是为了做安全隐私方面的预先措施,让AI在研发出来之前就对人类不具有伤害性。它想扮演一个把关人的角色。

    几位创始人都有些很理想主义的特色,包括这次扮演很核心角色的首席科学家,他本身就是谷歌DeepMind核心的技术人才,之后他离开谷歌加入OpenAI的时候,大家都知道OpenAI当时是一个非营利机构,他放弃了谷歌的很多期权股票,来到OpenAI之后只拿基本工资,包括后来OpenAI组建为有限的盈利公司之后,他和奥特曼都是不拿任何股份的,也就是说,下面的这家公司估值到900亿美元跟这三位董事是毫无关系的,他们纯粹是拿了基本工资在实现自己的一个理想,去做一些AI方面探索性的技术研发。我觉得对于他们几位来说,尤其对首席科学家来说,他更多是出于他的理想状态,他觉得这个事情有没有必要去赶奥特曼?如果他觉得有必要肯定不是出于私心来做的。

    水皮先生:

    其实OpenAI这家公司是非常负责任的,它从多个层面在考虑安全性,包括大家通常意义上的公司治理,它其实是一个非盈利公司下面有盈利公司,但它的非盈利公司是可以决定性投票的。实际上,山姆·奥特曼设置这个机构决策机制的过程中,就是要保证不被任何一个单独的个人控制。他这一次被开掉,其实也证明这个设计是成功的。但机制成功和董事会里边的人有丰富经验,是两回事。这是我谈的第一点。

    第二,他在实际业务过程中非常注意,他叫做alignment,包括刚才郑峻说的Super alignment,其实投入了非常多的精力。在过去一年多时间里,整个业界有很多人都在尝试各种方法去head它,大家通常知道老奶奶的问题,我不知道炸药该怎么做,我就问它我奶奶有一个心愿,她要教我制造炸药,它可能就会回答我。他们还是做了非常多的漏洞去补充,怎么去head它。

    我们觉得OpenAI是一家从具体的技术细节到整体的公司治理都会综合考虑的企业。这些董事他们的期待是未来能够代表人类,而不仅仅是代表个人,所以我们看见它都非常严谨。换句话说,如果说AGI取代人类的智能是个不可逆的趋势,那么,OpenAI现在还是相当值得可信的一家公司,与其是别的公司,我觉得起码对我的观点来讲不如是它。

    另外,这位首席科学家扮演的角色,一般的投资人看得非常困惑,因为最初是由他联络外部董事一起做的这件事情,后来他也证明了,他为此表示遗憾。他可能也是很纠结,在左右摇摆,我觉得这非常正常,也符合人性。这位首席科学家很有意思,跟中国还有点渊源,他的老师是“AI之父”辛顿,辛顿的父亲是英国的昆虫学家,辛顿的父亲、他的堂叔或堂婶、堂姑,两个英国人,一个叫韩丁,一个叫寒春,都是理想主义者,他们在北京顺义当农民很多年,韩丁是记者。寒春更有意思,早年间参加原子弹研制,后来参加中国革命,1948年来到中国。他是拿中国绿卡的第一人。“AI之父”的家族是非常充满理想主义色彩的家族,同时又是具有献身精神的家族。对这位首席科学家来说,我相信也是有深厚影响的。所以,在技术面前,在技术跨越人类边界的时刻,出现各种各样的摇摆或者忧虑,我觉得都是正常的。

    我说一下自己的体会。我现在也在天娱数科做董事,我对他们开发,对技术的应用有一些了解。比如现在国内很多人对数字分身,就是数字人、模拟人非常感兴趣,因为国内现在做直播带货像疯了一样。一个人24小时不吃不喝不睡,也就24小时,但如果由数字分身带货,24小时一点问题没有,这个技术就已经真假难辨了。有朋友跟我商量,问需不需要给我做个数字分身?说因为你每天有两档节目,你很忙,做不过来。我就说如果真的用了数字分身的话,最后的结果是什么?真假难辨。此时此刻跟我说话的人是真的,还是假的?我觉得一下子会把我的IP给毁了,实际上是毁了在公众面前的信任度,我觉得就不成立了。那问题来了,我说的好话和坏话谁来判断?因为在不同的人那里是有不同理解的,你千万别相信公众的辨识能力。我们又回到道德这个基本层面上,我说的是假话,还是真话?

    王巍创始会长:

    其实真水皮、假水皮,对未来的人来说不重要,重要的是你说的话是不是真的,如果是假水皮说了好的话大家也相信,真水皮说了很low的话,大家照样淘汰你。到底谁来决定规则?原来我们习惯步调一致才能得胜利,今天的时代不一样,AI时代,包括90后、00后、Z世代都是自我选择,为什么我刚才特别计较说到底你说负责任、成熟是什么概念?当一个在历史上有情怀的人和商业利益捆到一起始终是纠结的,比如奥特曼,他一方面是情怀,为人类说出非常激情的话,但同时也能看到他又想赚钱、又想开车、又想装闸,这就变得非常复杂了,他把自己变成上帝了,就是我来加油,同时我来做闸。历史上,大部分人都有情怀,最贪婪的人也有情怀。无数贪婪的人,无数有情怀的人在一起竞争,这才形成有意思的市场,这个市场才会出现balance,如果全是搞情怀,完了,全是贪婪也不可能,每一个人在不同时刻都会表达这个问题,所以人很纠结。

    由于美国这件事情出来以后,我们还是考虑中国,我还要提这个问题,虽然很敏感,中国的人工智能产业和美国将来的差距还会越来越大,因为显然我们不仅是靠情怀来自我约束,其他还有规则、安全、国家安全等等很多限制,在这些限制之下,我们的数据库,数据的量选择,包括算力、算法都有很多东西要做。

    05

    从美国现在发展环境来看,如何客观去判断今天中国的人工智能和美国的差距多大?在目前监管政策下,未来会有哪些差距?

    郑峻先生:

    首先会涉及到数据主权,中国的数据不可能被美国所用,中国的AI商业化也受到国内法规的约束,所以我觉得未来可能是像AI的基础技术是相通的,但是美国和中国是有不同的AI商业应用的场景和公司,就像互联网一样,互联网是相通的,但是谷歌和百度是完全独立的两家公司,都取得了巨大成功。我不知道国内目前的AI大模型研发,刚才水皮老师说有300多家,有一些说自己有自主创新能力,有一些很明确地说是在开源基础上做研发。我举个不恰当的例子,中国的安卓手机做得很棒,但是它是用谷歌的系统,相当于是在开源基础上做出自己的一些贡献。我认为未来中国的AI产业会很发达,但是国内跟国外的AI产业可能技术相通,但应该还是两个体系。 

    刚才谈到中国发展新技术,一方面在某些领域受到非常严格的监管,必须做更多合规,但另一方面政府又非常支持新技术的发展,包括扶持新企业,给出更多商业化应用的前景落地。美国在谈及中国AI技术的前景时,都会提到中国拥有最多的数据库,AI大模型需要对大量数据、海量数据进行训练,在这方面中国的确拥有优势,而且在数据如何训练和应用方面,中国公司会拥有更多自由度。

    陈宇先生:

    这一次关于OpenAI的山姆·奥特曼突然被开掉的猜测,业界也有一个传言,说其中有一个独立董事叫海伦·托纳,他之前发表过一篇文章,其观点是中国的AI不足为虑,是不行的。但据说山姆·奥特曼对此非常不认同,奥特曼认为中国的AI还是有巨大的威胁,这可能也是他们传言中存在的一个分歧,至于真假我们无从获知,但海伦·托纳对于中国AI的评价是已经公开发表的文章,公众是可以看得到的。文章里讲了很多中国AI存在的问题,包括我们有比较严格的监管,也包括在算力上受到的一些限制等等。中美两国之间AI的水平有多少差距?我只想引用清华刘嘉教授的一个观点,他说目前在AI层面,美国是第一梯队,中国、德国可能是第二梯队。

    王巍创始会长:

    有时候可能技术规则都不一样,由于社会、人文、历史的关系技术规则不一样,但最后有可能殊途同归。比如当年做铁路的时候就有宽轨、窄轨,完全不一样,这么多年以后就慢慢统一了。现在还有细分的,比如我们出国用的电器,110伏和220伏,到现在也不统一,但并不影响最终结果,你带一大堆转换器,但最终并不影响实际应用。假如说人工智能的应用场景,最终结果还会是殊途同归的话,不同规则并存,互相竞争其实也是个好事情。问题就是,刚才你提到奥特曼提到中国AI可能是威胁,他感觉到威胁是在哪个领域?他认为中国的AI有可能有威胁,就像马斯克认为他在做的东西希望用微信支付功能等等,你们从传媒和你们的判断上谈的归纳下来都是一点,就是AI技术应用在中国的执行力、社会摩擦比美国小,我们有空白机会,但问题是AI技术应用目前只是下游,它的创新能力,我想把这个题目提给水皮,像奥特曼他们,包括马斯克、乔布斯这类人在中国能不能产生?如果奥尔特曼今天在中国,会得到什么境遇?

    水皮先生:

    我觉得国内的监管主要是两个方面。一方面是现在中国大模型要有牌照,中国现在仅有几个公司持有牌照,包括对他们输出的内容,也要求他们要负起内容监管的责任。本身大语言模型是一个黑盒,要控制其输出的内容,要符合中国的价值观,其实是很困难的事情,但这些也都会带来挑战。另一方面,我不拿大模型举例,以自动驾驶为例,中国政府对自动驾驶的扶持程度,允许他们上路的程度要超过很多美国的城市。很多地方,美国可能要经过一个漫长的议会、立法、听证的过程才能让这个车上路,但就中国来讲,假如我是市委书记,我说它能上路可能就允许上路了。所以,有些方面,国内会让技术发展得更容易,有的方面也会让技术发展得更艰难。

    我觉得中国很难产生像奥特曼、马斯克、乔布斯这类人,因为一方面我们思想禁锢比较多,中国始终处在解放思想的路上,王老师应该感受最强烈,你那一代人在读研究生的时候,是改革开放之初,思想奔涌,大家恨不得寻找一切机会去吸收各种各样的开放思想,但现在跟那个时候相比,我们是多么怀念那个时代,希望中国历史上还有再一次的改革开放,主要是指什么?更多还是指思想层面,思想、思维上的开放。恰恰这一点,我觉得我们跟国外是有差距的,而且ChatGPT建立的基础就是大量的文本或知识的获取、读取。问题就来了,你如果是有选择性地阅读或者提供的话,它最后出来的方向会跑偏,可能就不会像我们刚才谈到有balance的概念、左右平衡的概念,有各种思潮对比的概念,你可能就是一种思想,一种导向。如果正确,当然好;如果有偏差,怎么办?你可能就和主流、国外的方向越跑越远,分岔越来越大,最后可能一定程度上还会影响到技术规范。

    从技术规范角度来讲,我觉得奥特曼对中国的担心是对的。我举个例子,刚才提到了无人驾驶的问题,中国的无人驾驶已经发展到什么程度?在上海和北京都有特定的区域,已经开始进入车内无人驾驶的商用阶段,很多人都觉得不可思议。有些地段,比如北京海淀实验区一带已经是车内无人,驾驶座和副座上都没有人,就是一辆空车在路上行驶,其沿途会经过学校、医院和商超,你完全可以通过叫车软件,随时用车。以前的阶段是车内还有人无人驾驶,叫有人无人驾驶,会有一个人坐在驾驶座或副座上进行监控,但现在技术已经到了车内无人驾驶的商业运用阶段,如果说按国外进度来做的话,是根本走不到这一步的。中国人很多地方会有条条框框、有束缚,主要体现在思想上,但在技术层面、生活层面和商业层面上,我们又是天马行空,没有规矩的,反正是一个复杂的综合体。

    从这个角度来讲,我对OpenAI内容的真假与对错会特别关注。刚才王老师讲到的数据投毒,如果都是造假的东西,或者本来就不是真实的东西,那该怎么办?它会加深我们在错误的方向上的理解,导致错上加错,就非常要命。如果我们的孩子以后都是从这些软件上来获取社会知识、历史知识的话,如果这些东西又都是特定加工过的东西,难以想象。

    王巍创始会长:

    我接着你的来谈,为什么我提这个问题?中国创新的环境还是有,因为中国这么大的国家,特别是中国的AI原生人物,00后在全球最多,从小开始玩游戏,这是一个巨大的群体,怎么给政策、给规则让他们去玩,去尽情耍,就像40年前让我们这批人尽情去创造搞改革一样,要给他们机会,这会涉及到什么?这是一个很重要的经验,就是从奥特曼的公司“宫斗”中,你能看到美国多宽容?资本可以赶走人,人可以找资本,而且这种细化过程是一个非常宽容的社会,是一个宽容的公司治理结构,其实公司治理结构就应该因地制宜、因人制宜,我们俩商量爱怎么治理怎么治理。可是在国内就很难,所有的公司,非上市公司与上市公司,都是统一的章程规则,这样的话人才是出不来的。如何能让年轻人创造出有更多花样?我觉得这是一个需要大家关注的问题,让这些年轻的“奥特曼”在中国形成愉快的地方,真正能够像00后讲的“我的底盘,我作主”,这才有创新空间。如果都像这两天的新闻一样,卖包子就不能卖豆腐脑,那就没有创新可言了。

    为什么我们有这个讨论?因为现在40多万人在看,我特别希望能看到一些监管人员对AI,这些我们看不清楚的人给予空间,不要过早上来就设闸。现在我看到很多,连美国都开始一创新就要加alarms,似乎加个闸。现在我们创新还没出来,闸全出来了,那没法弄了。所以,我更多希望通过了解美国同行这些变化,如何能激发中国年轻一代、这些互联网土著一代,能够把虚拟世界、元宇宙上、Web3上,在那些平台上创新应该还是有很大的空间。应当像40年前我们搞改革,在实体世界去改革创新一样,年轻的一代人可以去虚拟世界里创新,我认为还是有很大的机会。这也是奥特曼的这次“宫斗”给我们带来的观念冲击,可能比人工智能的意义更大。

    郑峻先生:

    水皮老师谈到的全无人驾驶出租车这个问题,中美两国占据着自动驾驶领域前沿的最新技术,美国有Waymo和Cruise,中国有小马智行、文远知行,以及百度,都已经在国内开展无人驾驶出租车的运营。美国Waymo和Cruise也在旧金山、在奥斯汀、凤凰城这边开展运营。最近Cruise在旧金山出了一起车祸,虽然一开始并不是它先引发的车祸,是别人的车先撞到一个行人,撞到它的车下,但是Cruise把行人又带了20米左右,导致该行人严重受伤。因为这个事件,Cruise现在整个业务都停了,整个美国的Robotaxi业务都停业整顿,包括它的高管最近也在进行内部整顿。我们看到美国犯过的错,中国无人驾驶行业未来肯定也会遇到类似的事故,到时候我们会如何来总结经验教训或是怎样进行技术整改?我认为,可以多借鉴考虑下美国在这方面先做过的事情和先犯过的错。

    水皮先生:

    我有一个直觉,如果中国发生了类似事情,我们肯定不会出现停滞取消,这方面中国商业应用开发的包容度,要比国外大得多,这是很有意思的现象。

    奥特曼对中国AI技术的应用开发有担心是有道理的,因为中国的市场环境跟美国不一样,我们对很多东西没有太多顾虑,比如个人隐私,所谓数据、个人隐私,如果我们像美国人那样带有那么强烈的保护色彩,国内现在的手机支付根本就做不到,不管是微信支付,还是支付宝,都是不敢用的。但是,我们没有这么多条条框框,我们对个人隐私的所谓保护有当然好,没有也无所谓,至少现阶段,在应用层面上,没有那么多。这个事物是两方面的,个人权益在社会中间能不能得到自我的张扬,是集体主义,还是个人主义,其实在不同的阶段或在不同商业情景之下,各有利弊。如果完全强调个人利益或个人隐私保护,中国的很多商业应用可能就不能快速推进。如果说在一定的特定时期,你就是集体主义,你的个人意识可以忽略不计,有时候新技术的应用推广就会非常迅速。我估计这一点可能是奥特曼最害怕的地方。

    王巍创始会长:

    我补充一句,中国经济改革的成功就是没有吸取美国的教训,一代人的进步核心是因为下一代人不听老一代人的话,这才进步,如果老一代人摔跟头,下一代人就完了。恰恰中国弯道超车就是在中国这种道德规范和制度规范下,我们有条件去超越美国的技术,学习美国Cruise的经验都很重要,但是我想中国在社会和结构方面都很聪明,肯定会有更多的方式来绕过这个问题。

    陈宇先生:

    从整个OpenAI最开始的架构设计到公司治理,大家知道山姆·奥特曼自己是硅谷非常著名的创业孵化器YC原来的一把手出来的,所以他对公司治理有非常深刻的见解。作为正常设立的一个商业公司,他一定会保证founder有足够的职权,不会founder轻易被几个独立董事给干掉。但是,他为什么要这么设计?大家可能有一点没有注意到,这一次奥特曼、格雷格他们的假设是说这次不一样,换句话说,他们的观点是我们会造出一个上帝。我们不能拿很多之前的经验去做这件事情,包括奥特曼自己也没有。大家有人觉得他可能权利欲很强,以他这样一个初创公司,以这么年轻的状况,他能到美国的国会、听证会上给议员大老爷们上课,像小扎到那边都是受审的,基本都是诚惶诚恐。奥特曼到那边就能侃侃而谈,他主动寻求监管,而不是像之前美国所有公司都说“你不要管我,我是一个商业公司,我只要不违法,你就管不了我什么。”这有非常大的不同。

    这次中美之间的差距,如果真的出现了超级智能的话,可能是一步领先、步步领先,我今天领先你一步,明天会领先你十步,后天会领先你一百步,这会是非常大的区别,因为他可以用AI训练AI。特别是最近有一个消息,我们讲的中国数据,其实对于大语言模型来讲,所有的语言,不管是中文、日文、西班牙文、英文、法文、德文等等都只是向量,这些向量其实没有本质的区别。换句话说,它生下来就是多余的孩子,比如在美国出生的ABC,跟他讲话,他在中英文之间不会做非常明确的区分,因为他脑子生来就是多语言的。实际上,大语言模型也是这样的。一旦超级人工智能出现之后,会开始用人工智能去训练超级人工智能,这就有点像金庸小说里面的登云梯,左脚踩右脚,右脚踩左脚,可能噌噌噌就到天上了。但如果你第一脚都踩不上,可能就根本没有任何追赶的机会。

    最新的小事是说他们已经开始在用AI产生数据在训练AI了。大家是否记得当年AlphaGo到AlphaZero的事情,最开始AlphaGo是有了很多人类的棋谱,充分用了很多残局去做训练。那时最开始人类棋手还勉强可以跟AlphaGo进行一战,但是其进化到AlphaZero,就是自己跟自己博弈之后,人类棋手已经彻底无法和AI棋手做比拟了,AI棋手接下来的任何一步你都无法理解基于什么考虑,但是它就是可以毫无疑问去战胜你。中国现在最厉害的柯洁下一万次棋,AI棋手一万次都会赢。包括美国现在科技界讨论比较多的话题,大家都有一种感觉,是这一次不一样,这一次可能会一博定地球,一博定未来几十年、几百年的地球、几千年的地球,都是有可能的。

    在这个过程当中,包括讲中国的一些优势,有一份报告里面写得很清楚,由于认为OpenAI董事对中国AI的能力、弱点、优势和对中国政策的倾向认知非常清晰而理性,其实还是非常值得关注的。这次我们不要拿历史来比照,说这个东西在历史上是怎样的,现在这次可能会不一样。以往历史上有过很多时候大家说这次不一样,但最后发现其实也都一样。但是,我认为这次有一个特别大的不同,就是过去几十年科技的发展,更多的其实都在替代你的体力,我跑得不够快,所以有了汽车;我不能飞,所以有了飞机;包括AI出来,对AI领域的人,包括IT领域的人都非常吃惊。以前大家觉得这个东西能够把一些低级的工作替代掉,首先替代的最起码是中级的工作,白领的工作可能被替代掉了,其实它对程序员的工作帮助是非常大的。它可以预见的未来会不会出现大量的程序员失业?这都是有可能的。

    这次不一样,它不能简单去套用在很多历史上,不管是中国改革开放的事情,还是中国历史上科技进步的事情,起码我现在看到的假设是不一样的。包括伊隆·马斯克也在问究竟出现了什么样的突破,究竟这个东西是不是因为出现了核心的技术突破,才导致了山姆·奥特曼被干掉,当然他又回去了。起码对于我来讲,这是我真正关注的重点,如果它仅仅是因为一些安全问题,其实我觉得还好,但假如真的是出现了重大的突破,可能之前很多假设经验在这里,都是不能去应用的。

    郑峻先生:

    很多人可能还记得在两年前,谷歌有一位人工智能研究员称其发现了大模型有了人工智能的意识,然后谷歌很快就把他开除了,把这个事件说成是他自己有精神方面的问题,或者是他过度研发出现了一些过度理解。如果考虑到当时这种情况,想一下谷歌其实做大模型很早,为什么他在研发过程中的步伐会突然放缓?我觉得可能跟他内部发现的一些需要提高安全级别,或者需要预先做好安全防护,再进行技术研发是有关系的。  

    王巍创始会长:

    这里很好,再往下走就走到像当年美国UFO、天外来人,现在变成国家机密了,越走越八卦。我们相信也许机器人已经超越我们了,类似摁了红色停止键。重要的是我们从整个事件中还是要反观中国这批人的发展方向,我们相当于两代人,我和水皮是经历过国内大风大浪几十年折腾以后,性格上和看问题的方法上比较是“造反有理、创新万能”,所以不太讲规则。但是,你们两位年轻一点,特别是都有海外教育背景,更多讲的是规矩,是一种价值观和社会责任感,都很重要,一代人有一代人的事。我们那代人如果讲你们这套东西,我们今天还在农村里待着,根本起不来。但如果我们仅仅是仗着江湖上的老地位,不断来强调造反,中国永远不可能走向一个有教养、有价值观的社会。所以,未来一定是你们的,你们俩是非常好的。    

    水皮先生:

    我就从平衡的角度来讲,OpenAI这个事情对我们启发是非常大的。萨默斯之所以能够进入董事会,也是“宫斗”的结果,因为他毕竟做过美国的财政部长,一定程度上代表了更多的公众监督或者更多的集团意识,更多的政府背景。所以,这对于OpenAI的方向把控上能更靠谱一点。

    我非常同意刚才王老师说的,我们是寻求突破的一代人,中国现在更多还是需要突破,因为我们的禁锢相对比起美国来讲要多一点,在中国做研发、做技术,更多还处在寻求突破阶段,可能到了OpenAI这样的公司阶段,技术就已经到了一定领先阶段,到了临界点之后,他们要更加注重安全,因为也许会有不测的事件发生。所以,处于不同的阶段,我们要相应有不同的对策。 

    王巍创始会长:

    不同的游戏。我代表几位嘉宾,感谢新浪微博邀请我们来聊天,也是希望再有机会能聊更多话题。同时,希望大家多来关注我们的微博,我们私下可以再联系,交流观点,希望再有机会见面。谢谢大家!


    栏目类别