一个典型的例子是高通与《巅峰极速》的合作,在游戏中调用可变分辨率渲染技术(VRS)便利用了对新图形API Vulkan的支持,充分发挥骁龙移动平台的性能,结合游戏本身的光影效果,游玩体验优秀
知情人士称,TikTok Shop本本团队招的美国本土商家不会进入全托管模式,全托管模式大多数招的是跨境商家。就Tom观察,TikTok Shop美国本土店带短视频,用户接受度很高,已经有不少爆品诞生。
此前,TikTok Shop的全托管模式已先后在沙特、英国上线。距离TikTok Shop的全托管项目实现今年年底的目标更进一步。目前美区本对本招商的重点是从亚马逊商家发力。不过,部分闻风而动的商家已经在美国开好了TikTok Shop本土店和MCN机构,并且开始对接货盘。以往美区本土的线上商家、线下批发商家,以及亚马逊海外仓发货的FBA商家,他们的出单量是比较均匀的,基本没经历过短时间内产品就被清空这种场面。
雷峰网欢迎读者,尤其是对TikTok感兴趣的行业人士与作者(微信:ydinitialheart)交流讨论。现在还需要头一批本土店商家播几个月,把人群标签洗准。大模型+知识+应用,才是未来软件的范式雷峰网:业界有人说以前的软件范式是信息+连接,未来是知识+陪伴,您认为未来软件的新范式是什么样的?简仁贤:我认为未来软件的范式是大模型+知识+应用。
有些创业公司或大厂在做的大模型都同质性太高,没有差异化,其结果大同小异。实际上,由于不可控的因素,数据安全的隐忧,许多国家和企业已经开始限制使用ChatGPT。雷峰网:为什么开始的这么早?简仁贤:大模型火了之后,后期投入的企业面临逐渐饱和的市场,也就是红海。我们的愿景是让每个人都能拥有一个机器人。
目前,我们正在与数十个客户进行商谈,他们对大模型还是比较接受的。因此,未来软件的新范式应该是:谁能够做出让用户享受到成果的产品,谁能够把最后一公里打通,就是最有价值的,当然要能保障数据安全,模型安全,并与人类对齐。
因此,我认为未来的软件范式是模型+知识+应用。举例来说,如果要整理过去10年雷峰网的所有文章,筛选出所有与人工智能相关的文章,你们公司有谁可以完成这项任务?需要多长时间?这是一项复杂的任务,需要大量的人力。竹间智能作为一家初创企业为何选择去填补这块空白?其实从简仁贤以往的履历中就能得到答案2006年加入微软负责Bing核心产品的研发、2012年担任微软亚洲互联网工程院副院长,负责微软亚太地区的搜索及AI产品的技术研发,并主导开发微软小娜(Cortana)......可以说,这些宝贵的经验是竹间智能研究NLP的弹药,但这并不意味着其NLP的研发之路是一帆风顺的。雷峰网:您认为大模型厂商应该把重点放在哪些方面?简仁贤:我们应该思考的是如何使企业在有限的预算下能够负担起新的AI技术,帮助他们实现内部增强。
我们会根据客户的需求帮他们定制适合的模型,无论是70亿参数,130亿参数,还是650亿参数的大模型,都在我们大模型工厂(LLM Factory)的服务范围内。我在之前几次演讲中也提到过,模型与用户之间存在着一道巨大的鸿沟。创办初期,简仁贤带领团队专心搞研发,2017年开始尝试做商业化探索,2020年形成规模化发展。作为B端的服务提供者,我们在金融、能源、制造、消费、传媒等领域已经积累了丰富的经验。
这才是大模型发展的重点,科技的进展日新月异,如何把握住最新技术,了解客户的需求,将合适的技术与产品落地到企业业务中才是我们最关注的重点。其实对于我们来说,创建大模型不难的,因为我们有know-how,真正的难点在于客户需要整理数据。
雷峰网:竹间的大模型是自研的还是?简仁贤:我们的大模型开发有两种方式:一是自主研发,二是基于其他预训练的大模型进行开发。雷峰网:那什么才是最重要的?简仁贤:真正重要的是,最后用大模型驱动做出的产品是否有实际应用价值。
另一个现实是:目前没有任何非AI企业有足够的计算资源和预算来开发通用大模型。这就避免了客户需要购买大量的GPU,或是纠结于如何选择合适的模型,或者是走进大笔经费的无效投入。简仁贤坦言,现在人们更愿意每天在媒体上面看谷歌怎么样了,Meta怎么样了,OpenAI怎么样了,谁谁谁怎么样了,这些都是趋势,不能反映企业内部的问题,这时大模型厂商真正要做的是,在企业预算资源有限的情况下,帮助企业把大模型融入到业务系统中,做增强,做赋能。雷峰网:这是我们和其他厂商相比,最具优势的地方吗?简仁贤:对。雷峰网:具体怎么帮企业做落地?简仁贤:我们提供的服务相当于预先训练好基础模型,将该模型部署到我们的大模型工厂(LLM Factory))上,再将其部署到客户端,允许客户使用自己的数据来训练自己的模型,并自动集成到企业的应用中。模型是否有价值?我举个例子,如果你回家跟家里的老人和孩子说:我有一个大模型,他们可能无法理解你在说什么。
雷峰网:竹间做这件事情,对企业最大的好处是什么?简仁贤:对于绝大多数的企业客户来说,他们无法投入数千万资金进行从0开始的基础大模型的预训练,即使有资金也无法做得到,数据,算力,know-how,维护等。1万个GPU的费用超过2亿美元,我们的客户,绝大多数现阶段都无法投入这么大的资金去开发超大模型,尤其是当这么大的模型并不是直接解决业务问题的。
谷歌也是一样,与OpenAI一样开发AGI,并且在为自己的产品以大模型的能力升级,谷歌和微软的大模型都还是闭源的。同时,雷峰网还了解到,早在2021年GPT 2刚出来时竹间智能就开始研究,并逐渐把机器学习平台往大模型上迁移。
雷峰网:和以前相比,客户的态度有转变吗?简仁贤:我们之前也推广过大模型,花费了大量时间去教育市场和客户,但是由于门槛比较高,客户也需要购买GPU,当时很多客户并没有充足的预算,也无法理解大模型能带来的实际效果,所以推广效果并不明显。如果只有模型和知识,却没有应用,那么它就无法被人们所接受。
各种模型都可以有不同大小的 size, 不同数量级的参数,这就好比我们喜欢的衣服有S、M、L、XL、XXL各种尺码,我们可以从以前的S尺码模型做到现在的M、L,甚至是XL尺码的模型。雷峰网:怎么帮客户解决这个问题?简仁贤:在数据梳理的过程中,不存在所谓的弯道超车,必须积累行业经验和know-how。我们在与客户交流的过程中发现,他们的需求不是高考,获取律师资格、取得MBA,他们需要的是解决自己的业务问题,而中大型模型就足以满足这一需求。不做C端,瞄准B端,坚持做企业级大模型产品雷峰网(公众号:雷峰网):和前几个月相比,您对大模型的发展有改观吗?简仁贤:近期大模型的发展和我几个月前的预测存在一些出入。
那么,如何架设一座桥梁跨越这个鸿沟呢?这座桥就是应用,就是产品。雷峰网:多了一个应用,这个逻辑是怎么推论出来的?简仁贤:我始终坚信,能够触及用户的产品才是最具价值的。
越早开始,积累的经验就越丰富,而后期投入则不可避免地要面对各种问题,这些问题我们往往已经解决过,现在的道路已经相对平坦。作者丨何思思编辑丨林觉民2015年从微软离职的简仁贤,创办了竹间智能,从成立之初,竹间智能就专注于AI技术的研发,并在NLP(自然语言处理)领域下足了功夫。
以下是雷峰网和简仁贤的对话:像特斯拉Model一样,做量化,让大模型更平民化雷峰网:从什么时候开始关注大模型的?简仁贤:实际上我们已经在大模型的研究领域耕耘超过两年的时间。另一是坚持开源并走向中大型模型。
在国内,高质量,梳理过的数据短缺是一大问题,特别是有效的中文数据更是稀缺,缺少能使用到模型训练微调的高质量的数据。种方式我们都采用,快速在企业场景中,落地应用,快速验证可商用化。这个模型留在客户端,属于客户所有,而不是我们。Meta目前是开源领域中最大的企业,也是大模型的主要贡献者。
很多人认为,这是其长期深耕NLP技术,厚积薄发的结果,简仁贤也并不否认这一点。与谷歌和微软保持闭源策略不同,Meta的LLaMA是开源的(参数权重除外),其在整个开源世界的影响力远超谷歌和。
如果坚持所有事情都从零开始,在企业落地阶段,可能并不现实。雷峰网:安全问题保证了,对于竹间来说做大模型最难的是什么?简仁贤:数据梳理。
目前竹间智能已经为600多家客户做了NLP的落地。雷峰网:大模型工厂(LLM Factory)具体可以做什么?简仁贤:大语言模型工厂(LLM Factory)的运行机制非常复杂,整条模型训练微调的流水线从数据梳理清洗,人工标注,到选择预训练基础模型,实验不同的微调方法,不同人物进行多次微调,并评估模型结果,再加入人工反馈强化学习机制,上下文学习,等等,进而自动化地完成模型交付。
网友点评
已有0条点评 我要点评