首页 手机网
入驻财经号 登录 客服 |
首页> 财经> 正文

开年三问人工智能:数据污染咋办?意识觉醒多远?新风口咋投?

财经号APP
央链直播央链直播 2024-02-07 13:19:40 1342
分享到:

2024年,人工智能会带来什么?在刚刚过去的2023年里,人工智能的发展以及它对于人类社会造成的影响,远超想象。

ChatGPT聊天机器人火遍全球、AlphaFold(阿尔法折叠)不断加速药物研发、披头士乐队借助AI(人工智能)创作发布新歌曲,身临其境的沉浸式娱乐、以假乱真的照片视频、能够自如使用人类语言的“数字人”伴侣……一个由人工智能深度参与的世界,正向我们快步走来。

回顾文明发展,人类从原始社会走过了农耕社会、工业社会、信息社会,现在逐渐进入智能社会。人工智能作为当下最具变革性的力量,已在潜移默化中深刻改变我们的生活。

2023年11月2日,首届全球人工智能安全峰会在英国落下帷幕,包括中国、美国、英国在内的28个国家及欧盟共同签署了《布莱奇利宣言》。

《布莱奇利宣言》认为,人工智能带来了巨大机遇,有潜力增强人类福祉、和平和繁荣,并已应用在日常生活的许多领域。但同时,人工智能也带来了重大潜在风险。

正如阿玛拉定律所揭示的那样:“人们总是高估一项科技所带来的短期效益,却又低估它的长期影响。”

AI时代已经开启,未来将会怎样?人类将迎来什么样的新机遇或新危机?面对人工智能的使用、研发和投资,《瞭望东方周

刊》提出三问。

“污染”数据怎么办?

AIGC引发的人类数据库“污染”问题,已摆上台面。以技术之力治理技术之乱,已提上日程。

一张国足捧起大力神杯的图片,在网上广为流传。如果不是因为图片内容与公众的认知存在过大反差,仅就图片而言,人物表情、动作、背景,完全能达到以假乱真的地步。

如此“逼真”的图片,据网络发布者称,是由AI(人工智能)生成。看似无厘头搞笑,但带来的风险却是实实在在的——它传递的错误信息很可能会被大众认定是真实的,导致谣言大范围传播。

这并非杞人忧天。诸如此类照片大量充斥在网上,不但混淆着人们的认知,长此以往技术迭代进步后,AIGC生成图片恐怕将变得愈发真假难辨,从而将人类的数据库“污染”。

现实生活中,在美国科罗拉多州举办的一场艺术博览会上,一幅名为《太空歌剧院》的画作获得数字艺术类别冠军。但是,该作品先由AI制图工具生成,再经Photoshop软件润色而来。事件在网络上引发讨论,不少艺术家指控AI作品参赛是作弊。

图片可以“作假”,以客观为本的新闻更是可以“生成”。

跟踪错误信息的调查机构“新闻守卫”(NewsGuard)研究发现,由AIGC生成的虚假新闻和信息已开始爆发性增加,正成为当前互联网时代的一项全新挑战。

“新闻守卫”报告称,生成虚假文章的网站数量自2023年5月以来激增了1000%以上,从49个增至600多个,涉及15种语言。这些网站每天生产大量文章,内容涉及政治、社会等多个领域。背后的动机各异,包括动摇信仰制造破坏,或者依靠两极分化的内容吸引点击量,获取广告收入。

新的信息战

AIGC技术的进步让几乎任何人都能轻松创建看似合法的新闻网站,生产的内容往往与真实新闻难以区分。

例如,有一篇AIGC生成的文章虚构了有关“以色列总理内塔尼亚胡精神科医生”的故事,这个虚假故事被广泛传播,甚至出现在了电视节目上。有的网站将真假新闻混淆在一起,大大增加了欺骗性故事的可信度。

“新闻守卫”提醒,这种情况的危险在于人工智能的范围和规模,当它与更复杂的算法结合时,误导性信息的扩散规模和速度将前所未见,成为一种新的信息战。

AIGC新闻造假看似遥远,其实已经发生在我们身边。2023年12月28日,重庆市奉节县警方发现,网民王某成在某资讯平台利用AI写作软件,编造发布了一条“某地一煤矿发生事故已致12人遇难”的帖文,引发网民关注,造成不良社会影响。

经警方调查,王某成这么做的目的是为了博人眼球、吸引流量。他本人也受到了应有的处罚。

与AIGC生成虚假新闻类似的是,在一些短视频平台,利用AIGC制作视频传播虚假信息的情况也越来越普遍。

在某短视频平台上,这类视频往往以AIGC创作出来的智慧老者、小和尚等“数字人”形象出现,他们“讲话”的声音、字幕也是由AIGC生成。对操作熟练的人来说,一个小时制作多段这类视频不在话下。而视频传播的所谓养生知识、人生哲理、生活理念,要么观点偏激、要么夹带广告“私货”,对老年人和儿童具有很强的欺骗性。

奇安信集团行业安全研究中心主任裴智勇表示,无论声音还是图像,都可以通过特定的数学变换分解成若干个特征向量,对每个向量赋予特定的一组参数,就可以形成特定的声音或图像。所谓AI换声,就是通过机器学习的方法,用某个人以往的声音作为样本进行学习,从而给声音的每个特征向量赋予特定的参数,之后再用这组参数读出新的内容,就可以做到语音、语气甚至情感的模仿了。

美国加利福尼亚大学伯克利分校数字取证学教授汉尼·法里德认为,AI技术的进步让诈骗者能轻易地根据简短的音频样本来复制声音。

“两年前,你可能需要大量音频来克隆一个人的声音。但现在,只要你在社交平台上发一段超过30秒的音频,复制声音就可以迅速实现。”汉尼·法里德说。

“吞噬”真实世界

现阶段,多数人对AIGC生成的内容持平和与宽容的态度,是因为很多内容“一眼假”。但当技术跃升到难以分辨时,再敲响警钟恐怕为时已晚。

在某款爆火的AIGC工具诞生之初,记者试用发现,体验感并不好。例如,对“刘翔在哪一年夺得世乒赛冠军”这样一个显然错误的提问,它给出了“刘翔在2004年获得了世界乒乓球锦标赛冠军”的回答。重复一遍提问,又给出了2005年的答案。而对于“泰山是济南的著名景点吗”,它第一次的回答是“是的,泰山是济南市的著名景点。它位于山东省泰安市,是中国五岳之一,有着悠久的历史和丰富的文化”。相隔一段时间再次提出相同问题后,该工具才对答案进行纠正。但时隔近一年再次提出类似问题,该工具已经能够很好应对,不再出现类似低级错误。

中国信通院云计算与大数据研究所人工智能部主任曹峰认为,生成式人工智能借助预训练学习、微调学习、提示学习和强化学习等技术手段,再不断通过人类反馈,实现了更强的自我学习能力。这正是其强大和可取之处。

AIGC经过反复专业训练和数据积累,生成答复内容的准确性、个性化将逐步提升,届时再分辨将难上加难。因此,由AIGC引发的人类数据库“污染”问题是渐进式的,隐蔽性强,危害性不易被察觉。

技术越是进步,其生成内容的真假就愈发难分辨,对传统世界形成“吞噬”。仅从技术角度而言,这将是一个难以阻挡的趋势。

很难想象,未来人们检索的图片、数据、问答,比如动物的外貌、植物的外形、书画的内容等,有相当一部分是经过AIGC修饰的。将这些“生成”的内容与真实世界对比的时候,人们又会以怎样的心态来看待这个世界,做出怎样的判断。

2023年7月7日,2023世界人工智能大会在上海举行,观众参观主题为“交响”的AIGC艺术展(辛梦晨/摄)

模型自噬

除了“污染”人类数据库,AIGC暗藏的另一个问题就是“自噬”。换言之,知识生成的过程是倒退而非前进的。

根据最新研究,将由人工智能生成的内容反馈给同类模型训练,可能导致模型质量下降甚至崩溃。这种自我吞噬现象被科学家们称为模型自噬。

研究人员指出,虽然AIGC算法在图像、文本等领域取得了巨大进展,但持续使用合成数据来训练模型会导致模型变得封闭,并最终失去多样性和准确性。

来自美国斯坦福大学和加利福尼亚大学伯克利分校的一篇最新论文印证了这一点,2023年6月的GPT-4在一些任务上的表现客观上要比3月更差。比如用同样500道“判断给定整数是否为质数”的问题来测两个版本,发现3月份的GPT-4答对了488个,而6月只对了12个。

不止如此,代码能力也下降了。研究人员认为,仅限AIGC生成的内容“喂”给模型,而没有新鲜的数据,即由人类标注的数据,只会导致AIGC性能下降。

AIGC带来的负面效应已经引起了相关部门重视。我国在2023年施行的《生成式人工智能服务管理暂行办法》,专门提出要采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性,实质是为AIGC的未来进步空间拓宽赛道。

设立“禁区”

科技的发展最终要服务于人类的幸福美好生活。当大量虚幻甚至错误的信息使人类的知识空间变得不再纯粹时,及时纠偏就很有必要。特别是在当下AIGC发展初期,放眼长远果断采取措施迫在眉睫。

现在,越来越多平台开始要求AIGC生成的内容必须明确标注,以帮助人们作出正确理解。为AIGC设置“禁区”已很有必要,新闻领域就是其中之一。

数秦科技执行总裁兼首席科学家崔伟称,AIGC生成的伪劣新闻已成为公害。例如,常常有自媒体发布油价上涨的新闻,但打开一看,近期并没有官方消息发布。“仔细观察,可以发现这类新闻具备共性特征,诸如标题很惊人、吸引流量,点击量和评论数都很高;内容非常格式化,先说新闻,然后几百上千字谈影响,煞有介事。有意思的是,每一篇都不尽相同,但是又非常类似。评论往往是网民不管真假大倒苦水,最终是平台、自媒体赚了流量,读者宣泄了情绪,没人知道事实到底如何。”

他表示,当AIGC被用于生成虚假信息时,其速度和规模的优势会迅速放大误导性内容的影响,导致公众信任危机和社会秩序混乱。

“对于AIGC生成的内容,必须要有所约束。”他建议,尤其是要从源头端、平台端加强管理,在新闻范畴内严禁AI无中生有生成虚假新闻大肆传播,更要杜绝假新闻的生产沦为工厂化、流水线。一旦发现,坚决清理相关内容,避免把辨别真假的困难留给大众。即便是出于“黑色幽默”目的,也要将生成内容放置在非新闻栏目下,且明确标注,避免谣言被信以为真。

合力共治

加强科技伦理治理,促进科技向善将成为一项长期工作。

崔伟等人士认为,技术本身并不具备道德判断能力,它的应用取决于人类用户的意图。因此,制定和执行有关AIGC应用的伦理指导原则和法律法规显得尤为重要。这不仅需要技术开发者和使用者的责任意识,也需要相关监管机构的有效介入。

北京航空航天大学法学院副教授赵精武表示,国家互联网信息办公室、工业和信息化部、公安部在2022年底制定了《互联网信息服务深度合成管理规定》,明确了深度合成服务提供者的法定义务,例如应当采取技术或人工方式对深度合成服务使用者的输入数据和合成结果进行审核。

“除了政府监管,科技公司、媒体、教育机构以及大众都应在其中扮演重要角色。”赵精武认为,这不仅是一个技术问题,更是涉及社会治理、公众教育和国际合作的广泛问题。

以技术之力治理技术之乱,已提上日程。“随着技术的进步,社会的适应和应对机制需要更新。比如新闻机构和社交媒体平台需要开发更高效的工具和方法,来识别和过滤AIGC生成的虚假内容。”新火科技控股有限公司区块链专家王阳平认为,区块链技术有助于破解AIGC诱发的数据及知识造假难题。

他表示,新闻摄影、物种照片、公共知识等均可被记录在区块链上,且全程可溯源、内容透明不可篡改、永久记录,可有效辅助人们提高认知和辨别能力,减少网络虚假知识及谣言的产生。

“意识觉醒”有多远?

“让我们享受一个漫长的‘AI之夏’,而不是毫无准备地进入秋天。”

26年前,德裔美国神经科学家克里斯托夫·科赫与澳大利亚哲学家大卫·查默斯打赌。科赫说,大脑神经元产生意识的机制将于2023年被发现,查默斯表示不可能。

当2023年过去,这场赌注揭晓,哲学家胜过神经学家,大脑神经元产生意识的机制仍未被发现,但科技圈开始更热烈地讨论——AI(人工智能)会有意识吗?

从通过资格考试,到进行艺术“创作”, 当整个世界对AI的强大能力感到兴奋时,那些曾经存在于《机器姬》《银翼杀手》等电影里的情节,似乎正在走向现实。

响指

“最让人恐惧的事情是,如果让OpenAI团队从头再做一遍,他们未必能够创造出ChatGPT,因为这些人也不知道,‘涌现’是怎么出来的。”2023年底,清华大学脑与智能实验室首席研究员刘嘉接受凤凰卫视专访时说,这就好像打了一个响指,它就出来了。

他相信人工智能正在“涌现”意识,为此搬出了有“AI教父”之称的杰弗里·辛顿。杰弗里·辛顿在2023年5月接受CNN采访时说:“人工智能正在变得比人类更聪明,我想要‘吹哨’提醒人们应该认真考虑如何防止人工智能控制人类。”

在AI领域,杰弗里·辛顿的成就举足轻重。他是2018年图灵奖得主,在谷歌任职期间担任副总裁兼工程研究员,几乎一生都在从事AI相关的研究工作。他主攻的神经网络和深度学习,是AlphaGo(一款围棋人工智能程序)、ChatGPT等AI程序高速进化的基础科学,OpenAI的联合创始人兼首席科学家伊利亚·苏茨克弗也是他的学生。

2022年2月,伊利亚·苏茨克弗发帖称“或许如今的大型神经网络萌生了意识”时,谷歌 DeepMind 首席科学家默里·沙纳汉回复说:“从同样意义上讲,一大片小麦可能显得有点像意大利面。”

2023年10月26号,《麻省理工科技评论》采访伊利亚·苏茨克弗时问起此事,他笑着反问:“你知道什么是玻尔兹曼大脑吗?”

这是一个以19 世纪物理学家路德维希·玻尔兹曼命名的量子力学思想实验,宇宙中的随机热力学波动被想象成大脑突然出现和消失的原因。

“我觉得现在的语言模型有点像玻尔兹曼大脑。你和它说话时大脑就出现,说完后大脑就噗地一下消失了。”伊利亚·苏茨克弗称,ChatGPT 已改变了很多人对即将发生事情的期望,从“永远不会发生”变成了“将比你想象的更快发生”。

天堑

“没有人能够不重视杰弗里·辛顿的看法。”在美通公司创始人王维嘉看来,ChatGPT把握高阶相关性的能力已远超人类,对世界的理解也远超普通人。他认为大模型“幻觉”是联想能力,是意识觉醒的证明——人类正是凭借联想能力,发现了万有引力、相对论和DNA双螺旋。

大模型“幻觉”也引起了北京智源研究院院长、北京大学计算机学院教授黄铁军的重视。

在腾讯新闻发起的《20年20人20问》中,黄铁军认为大模型“幻觉”可能是超越既有知识体系的创新,例如有启发意义的文学、艺术和科幻作品,或者新的洞见、思想或学说,是知识体系不断扩展的源头活水。他甚至表示,没有“幻觉”,就没有真正智能。

事实上,尽管人们对于意识的探索已有上千年历史,但在关于意识究竟是什么、如何判定一个人或物是否有意识这点上,一直没有取得决定性的突破。

1714年,德国哲学家莱布尼茨发表《单子论》,提到一个思想实验:“必须承认,仅仅靠机械的运动、数值,是无法解释知觉的存在的。想象一个机械装置,我们不知它有无知觉。因此,我们将自己缩小,走进其中,可以看清机器运行的所有细节、过程,也可以理解过程背后的力学原理。甚至,我们还能预测机械将如何运转。然而,这一切似乎都与这机器的知觉无关。观测到的现象,与知觉之间,似乎总有一个天堑一般,总是无法相互勾连。”

时至今日,这道“莱布尼茨天堑”仍横亘在人类面前。

不过,这没有妨碍360集团创始人周鸿祎公开断言:“人工智能一定会产生自我意识,留给人类的时间不多了。”

2023年3月,他在中国发展高层论坛上表示,现在的大型语言模型参数可以看作是脑容量里神经网络的连接数,人脑至少有100万亿,当大模型参数到达10万亿时,可能就会自动产生意识。

2023年10月31日,杭州云栖小镇,观众在以“计算,为了无法计算的价值”为主题的2023云栖大会“人工智能 +”展馆参观人工智能产品及应用(黄宗治/摄)

群嘲

事实上,这不是科技圈第一次讨论人工智能是否在觉醒。

上一次的讨论是在2022年6月,入职谷歌七年的研究员布莱克·莱莫因称,他发现了一个惊天秘密——公司正在研发的人工智能聊天机器人LaMDA已经觉醒,有了自我意识,但谷歌方面却试图掩盖这一切。

为了证明自己并非胡说八道,他把一份21页的聊天记录公布在了互联网上,希望大家看到,从阿西莫夫机器人三定律到中国禅宗公案,LaMDA都给出了语义通顺的答句。

但他几乎成了笑话,饱受了毫不客气的群嘲。

美国纽约大学心理学系教授加里·马库斯说他“是高跷加长版的胡说八道”。

研究自然语言处理模型的美国加州大学伯克利分校教授埃迈德·赫瓦贾说得更简短却直接:“谁真正熟悉这些模型的系统,谁就不会说这些模型已经觉醒的蠢话。”

在清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正看来,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,还关乎企业合规性的基本坚守。

“一旦认定人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。”他说。

这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”

风险

梁正表示,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。

比如“曲别针制造机”假说,就描述了一个通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景——假设某个人工智能机器的终极目标是制造曲别针,尽管目的看上去对人类无害,但当它使用人类无法比拟的能力,把全世界所有资源都做成曲别针,就会对人类产生伤害。

“不仅要关注大模型的潜在机会,还要关注风险和缺点,这一点非常重要。”谷歌首席科学家杰夫·迪恩说。

让AI的价值观和人类的价值观对齐,已成为当下的热门话题。

对此,黄铁军称:“当人类智能高于AI智能时,AI是可控的助手,可以被人类调教为越来越可信的助手;但当AI智能高于人类智能,全面超越人类的AGI(通用人工智能)出现时,问题就转化为AGI是否相信人类,而不是人类是否相信AGI。主动权不在人类一边。”

2023年3月,全球1000多名技术专家联名发布《暂停大型人工智能研究》公开信。

在这份呼吁“所有人工智能实验室立即暂停至少6个月的比GPT-4更强大的人工智能系统的训练”的公开信中,包括苹果联合创始人斯蒂夫·沃兹尼亚克、特斯拉和SpaceX公司老板埃隆·马斯克和人工智能领域顶尖专家、图灵奖得主约书亚·本吉奥在内的科技巨头写道:“具有与人类竞争智力的人工智能系统可能对社会和人类构成深刻的风险”“让我们享受一个漫长的‘AI之夏’,而不是毫无准备地进入秋天。”

大胆假设,在一个拥有更智能的人工智能的世界里,人类怎么办?

“有一种可能性,按照今天的标准可能很疯狂,但按照未来的标准不会那么疯狂,那就是许多人会选择成为人工智能的一部分。这可能是人类试图跟上人工智能的方式。”伊利亚·苏茨克弗说,“起初,只有最大胆、最冒险的人才会尝试这样做。”

新风口怎么投?

这是一只能乘势跃起的独角兽,还是一头走不进春风里的吞金巨兽?

2023年7月6日,上海世博展览馆,2023世界人工智能大会正式开幕

风起于青萍之末,浪成于微澜之间。伴随着OpenAI掀起的颠覆性变革浪潮,AI(人工智能)再次走到资本与市场的风口浪尖。

中商产业研究院发布《2022-2027年中国人工智能行业需求预测及发展趋势前瞻报告》显示,截至2023年11月24日,我国人工智能领域投资事件达531起,投资金额为660.48亿元。2023年,我国人工智能行业市场规模为3370亿元,预测 2024年将达4015亿元。

一方面是ChatGPT(由OpenAI 训练的大型语言模型)引发的创业热潮,一方面是2023年中央经济工作会议明确提出,“以科技创新引领现代化产业体系建设”“加快推动人工智能发展”“鼓励发展创业投资、股权投资”,技术和政策的叠加利好,让人工智能的创业者和投资者站到了新一轮风口上。

迎风而上,风险几何?机遇何在?如何飞越AI企业投入多、门槛高、落地难、周期长的重重关隘?带着这些问题,《瞭望东方周刊》走访了多家投资机构。

AI投资逆势增长

“2023年,启迪孵化企业融资超100亿元,2021年是70亿元,2022年是90亿元。”启迪控股(以下简称启迪)董事长王济武受访时表示,我国人工智能领域的投资蓬勃向好。

中国AI看中关村,中关村看海淀,海淀看清华科技园。坐拥清华科技园的启迪,孵化了两万多家高科技企业,旗下80多支基金,管理规模400亿元,已投资近2000家企业,大多数都与人工智能相关。对照中商产业研究院的报告数据,可见启迪板块在全国人工智能新增投资方面占了1/7强。

有别于“自带AI基因”的启迪,京投控股麾下的PE(私募股权基金)干将——基石创投,原本聚焦轨道交通基础设施,但在过去一年,也将“近2/3的业务投到了人工智能相关领域”。基石创投创始合伙人黄力波表示。

2023年,全球经济形势的复杂多变给投融资市场带来了诸多压力,募投双降、估值下调、IPO收紧、退出艰难等问题成为许多投资者和企业关注的焦点。

红杉资本中国合伙人郑庆生认为:“这是另一个科技周期的开始。”在整体创业投资下降的背景下,人工智能领域的投资占比强劲逆势增长。

毕马威报告显示,全球人工智能风险投资案例数和融资金额占全球风险投资比重逐年提升,2023年上半年占比达18.9%,创近年新高。

独角兽?吞金兽?

回看2023年,不少机构喊出“all in AI”(全部投入人工智能),明星创始人投身AI创业或者AI明星项目大额融资的消息不断传来。

IT 桔子数据称,目前,中国人工智能领域的独角兽公司共有 102 家,2023 年新晋独角兽10 家,包括智谱 AI、百川智能、零一万物、Minimax 名之梦等(不包含新晋为独角兽但很快因为被收购而退榜的“光年之外”)。其中,百川智能半年融资3.5亿美元,估值超10亿美元,创下了国内大模型初创企业最快晋升独角兽的纪录。

按照硅谷风险投资人艾琳·李的定义,独角兽企业指“估值超过10亿美元的初创企业”。对此,启迪控股副总裁、基金事业部董事长沈全洪的解读是:“独角兽是资本堆起来的,行业需要旗帜。”

投资人都想做独角兽背后的勇敢捕手,但这是一只能乘势跃起的独角兽,还是一头走不进春风里的吞金巨兽?这考验着每一个投资人。

AI四小龙的“教训”就在眼前。

头顶“AI第一股”光环的商汤科技(以下简称商汤),2014年成立后七年获得12轮融资输血,于2021年12月30日登陆资本市场,市值曾高达3200亿港元。然而,据招股书及财报显示,商汤(至2023年中)近五年半累计亏损468亿元。

同为四小龙的云从科技,亦至今未能阻止亏损继续扩大。

沈全洪表示,如果没有与估值相匹配的业绩,估值会成为企业可持续融资和发展的绊脚石。

研究机构 PitchBook (美国知名私募股权与创投资资料库及数据分析服务提供商)的报告颇为刺眼:自 2021 年以来,全球有 400 多家独角兽公司没有筹集到新一轮资金,约 94% 的科技独角兽公司缺乏盈利能力。

红杉成员企业宇数科技的四足机器人亮相“红杉数字智能产业孵化中心”启用仪式

二八定律

当前,大模型是人工智能领域关注度最高的赛道,我国也成为全世界拥有大模型数量最多的国家。

在2023年11月举办的西丽湖论坛上,百度董事长李彦宏表示,截至2023年10月,我国已经发布238个大模型相,较于6月份的79个,四个月增长了三倍。许多行业、企业、甚至城市都想从头训练自己的专用大模型。

“回顾PC(个人电脑)时代和移动互联网时代,各种PC软件都基于Windows(微软公司开发的操作系统)系统开发,移动时代的操作系统也仅有安卓和iOS两家。”他认为,不断地重复开发基础大模型是对社会资源的极大浪费。

对此,金沙江创投董事总经理朱啸虎表示,200多个大模型很快就会进入收敛期,2024年底可能只会剩下一二十个大模型。

“投资界存在二八定律,十个项目能成功的可能只有两三个。对于看好赛道的前几名,投资者往往会一并布局。”沈全洪表示,此前,启迪就投资了商汤、中科寒武纪和第四范式。

“最终,市场需要的大模型或许只有一两家。”黄力波坦言,“我们不会为了投资而投资,毕竟AI四小龙都还没有盈利。”

因此,大模型热潮下,基石创投选择了投“铲子”——前端的工具和模型应用。

“我投项目有三条标准:首先,要有好的团队,技术是第一位的;其次,在硬科技的门槛之上,要有未来的市场空间;第三,企业要有好的治理结构和股权结构,能长远健康发展。”黄力波称,基石创投每个投资经理每年会看上百个项目,筛选后推到他这里,他一年会看七八十个项目。

在他眼里,理想的项目是五年能上市退出或申报IPO(首次公开募股),年化IRR(内部收益率)不低于30%。

回报能多高?

二八定律下的“幸存者”,投资回报能有多高?

投资聚美优品的百倍回报,让红杉中国的沈南鹏荣膺电商“教父”;IDG资本的周全、林栋梁,以投资搜房网11年回报百倍的案例, 一战“封神”。

2005年成立于清华科技园的兆易创新,在启迪的孵化投资下成功上市,历时11年成长为芯片行业的巨头。启迪获得的回报高达200多倍。

“相比200多倍的回报,我们更愿意讲我们和合肥政府促成兆易创新和合肥长鑫存储联动发展,解决‘卡脖子’技术难题的故事。”沈全洪称,不同于消费领域,科技企业的发展不是线性的。前10年赔钱,第11年爆发(收益),这样的事太多,不能用前10年发展来预测未来效益。

“这十分考验投资者能否长周期陪伴,以及是否具备识别与容错的能力。这也是启迪建立80多支不同类型基金的原因。”他说。

“科技投资,不是有钱就能任性,更不是烧钱就有未来。”一名国家级基金负责人表示,为挖掘具有成长价值的AI公司,他要求团队深耕一线调研,做“专家型投资人”。

“大家都看好大模型赛道,我们也进行了调研,但具体到每个项目,团队背景、技术路径、应用场景各有差异,投资者很难衡量其优劣好坏。”该负责人称,相比而言,垂直行业模型和行业应用有更多的创新企业和投资机会。

关于以AI为代表的高科技企业盈利难题,多名受访者都表示,“难在走出实验室和应用落地。”

“做研发的人喜欢做技术,很多创新其实是为了兴趣而创新,但市场需要应用,怎么打通?”沈全洪表示,启迪用20多年的时间在全球搭建了300多个科技园,就是为了给技术发展提供真实的一线场景和需求数据。

比如在无人驾驶赛道,启迪通过科技创新网络信息反馈,发现了城市环卫的需求,投资孵化了仙途智能。现在,仙途智能的无人环卫已经出海到沙特阿拉伯。

“整个中东都很欢迎这样的人工智能工具。”沈全洪称,“科技企业需要的不仅是投资,更需要平台和桥梁,需要有第三只手整合资源,支持创新落地。”

2023年1月19日,南京,江心洲江岛智立方产业园

周期错配

当下,不少投资机构明确喊出“投早、投小、投科技”,但是投得越早,风险越高,也是投资者的普遍共识。

“大家都讲高风险、高回报。我认同投资AI企业是高回报,但不认同是高风险。”王济武对记者表示,“启迪对过往30年的企业大数据做过分析,发现高科技企业的盈利周期普遍需要10到15年。所以,投资AI企业的风险不在于技术的先进性,而在于投资周期错配。”

“大多数投资机构的基金周期设定在五年左右,普遍短于AI企业的成长周期。”黄力波称,基石创投因为有京投控股等国有资本背景,周期设定在七到十年。

他坦言,国内愿意投长周期的老钱比较少,大家习惯了赚快钱,民间资本参与的意愿不高,科技领域的投资目前主要还是靠政府和产业资本。

前述国家级基金负责人表示,以国家级基金为代表的战略投资者,除了资金投入外,更重要的是发挥战略导向作用,引导资金投向战略性新兴产业。

“能不能用新模式改造传统行业,能不能破解‘卡脖子’问题,是我们投资的首要考量。”他说。

“对于一些战略高地,需要大力出奇迹的项目,不妨举国体制去砸。”王济武称,一些地方已有探索,比如江苏成立了江苏省产业技术研究院和苏州实验室,举全省之力支持科技成果转化。

至于面向市场的AI企业,如何破解研发投入多、专业门槛高、转化落地难,还投资周期错配的难题?王济武的建议是:“我们可否借鉴硅谷银行的做法,设立面向创业者和风投的专业银行?”


财经号声明: 本文由入驻中金在线财经号平台的作者撰写,观点仅代表作者本人,不代表中金在线立场。仅供读者参考,并不构成投资建议。投资者据此操作,风险自担。同时提醒网友提高风险意识,请勿私下汇款给自媒体作者,避免造成金钱损失,风险自负。如有文章和图片作品版权及其他问题,请联系本站。

0条评论 网友评论文明上网,理性发言

中金登录 微博登录 QQ登录

    查看更多评论

    举报此人

    X
    确认
    取消

    热门视频换一批

    温馨提示

    由于您的浏览器非微信客户端浏览器,无法继续支付,如需支付,请于微信中打开链接付款。(点击复制--打开微信--选择”自己“或”文件传输助手“--粘贴链接--打开后付款)

    或关注微信公众号<中金在线>底部菜单”名博看市“,搜索您要的作者名称或文章名称。给您带来的不便尽请谅解!感谢您的支持!

    复制链接

    鲜花打赏 X

    可用金币:0

    总支付金额:0

    您还需要支付0
    我已阅读《增值服务协议》
    确认打赏

    1鲜花=0.1元人民币=1金币    打赏无悔,概不退款

    举报文章问题 X
    参考地址

    其他问题,我要吐槽

    确定

    温馨提示

    前往财经号APP听深入解析

    取消 确认