1.随意选牌
2.设置起手牌型
3.全局看
4.防检测防封号
5.可选择起手如(拼三张):金花,顺金,顺子,三同,对子 顺子牛,同花牛,牛九,牛八(麻酱)起手暗 杠, 控制下张牌,快速自摸,防杠防点炮
6.麻酱,金化,跑得快,红黑大战,捕鱼,十三张,龙虎等等更多玩法均可安装使用
7.苹果,安卓系统通用, 支持首款苹果安卓免越狱(全系列)辅助
说明:杭州都莱开辅*助真方便,使用方法也简单,自动能力较强,后台运行很方面,需要添加微信【9272918】安装软件,把软件安装好了之后,就可以自由使用软件。使用方法:和对方谈价格,诚信交易就可以,买了对方的第三方软件之后,就可以随时自由使用辅助了。 专题:2025世界机器人大会:AI大模型赋能机器人与具身智能产业新范式交流活动 “2025世界机器人大会”于8月8日至12日在北京经济技术开发区开幕,“AI 大模型赋能机器人与具身智能产业新范式交流活动”作为2025世界机器人大会的专题活动于8月8日同期召开。北京虚拟动点科技有限公司董事长兼CEO刘耀东出席并演讲。 以下为演讲实录: 非常荣幸由我代表虚拟动点跟各位分享一些我们关于空间计算技术在具身智能应用在的一些洞察和思考。 众所周知,技术的发展推动着各个产业的进步,从人类发展到现在经历了几次大的科技的巨变,从蒸汽机出现到电力的出现再到信息时代的出现,技术的迭代在重塑人类的生产生活。 毫无疑问,我们现在所处的时代,因AI,又一次被重塑。2020年,AI开始理解世界了,能看懂文字,看懂视频,看懂图片。紧跟着生成式AI到来,刚刚结束的WAIC和世界互联网安全大会上,我们看到了all in AI Agent,AI又开始帮我们决策和做各种生产生活中的选择,成为了我们的工具。 而今年3月份英伟达的大会上,黄仁勋先生第一次提到了物理AI时代要到来了,物理AI是不是就是今天所提到的具身智能呢?AI可以借助具身智能这个载体,真正的走入到生产生活中。 既然提到了物理性AI,我们不得不提到其中一个重要组成部分——空间计算,也是我们北京虚拟动点科技有限公司深耕了多年的领域。 依托于这些对于空间计算的宏观判断,虚拟动点过去这么多年做了什么?给大家举一个最简单的例子,大家知道去年的《黑神话·悟空》,所有的动作数据都是由虚拟动点的空间计算技术来完成的,正是因为新的技术的加持,才让一个游戏的体验得到了前所无有的提升,最终做到把中国的传统文化出海,达到国人审美期待的一款作品。同样,我们也把空间计算应用到了影视、动画、工业、体育、医疗等等的行业。 之于具身智能,我们也发现了空间计算技术的价值所在。虚拟动点入局具身智能领域,不造机器人本体,而是基于公司自身的空间计算技术积累,赋能合作伙伴造更好的机器人。 准确的说,我们是机器人的“小脑”和“眼睛”,帮助机器人厂商的本体实现感知空间、运动控制和决策行动。 虚拟动点入局具身智能领域有三个核心优势: 第一点,高质量且丰富的动作数据。 第二点,沉淀多年的空间计算算法技术。 第三点,提供成熟的数据和训练服务。 数据这个话题从海外到国内,所有的机器人从业者包括今天在场刚刚演讲过的各位嘉宾都提到了一个词,就是数据。 如今,有了开源数据、有了视频数据,有了合成数据,似乎数据量已足够。但是数据的质量怎么办?我们的空间计算所解解决的就是高质量数据的部分。 虚拟动点是一家深耕空间计算领域多年的公司,我们其实很多年前已经开始在积累数据,在做影视、动画、游戏等等传统空间计算领域的时候积累了大量的空间数据,用这些数据成为了现在第一代的人形数据集,这里也做了细分,有一些基础的比如原子级的数据,推、拿、取、放这些基础的数据,包括一些套路型的数据,甚至存了一些国家的非物质文化各种各样的武术、舞蹈的非遗资产,最后形成了我们的数据集。 更重要的是,人形动作这件事很难被中文准确的定义和描述出来的,为了解决这个问题,我们的研发团队专门用了心思把数据和中文的汉语大词典做了精准的匹配,尽量试图做到在检索数据的时候不会给数据的使用方造成太大的压力,就能调用到适合的动作数据。 除了已有的数据集,再加上有很多的算法,我们的数据其实是源源不断的优势,可以持续丰富的数据。 提到算法这块也有很多为不同的具身智能合作伙伴提供一些不同的算法能满足大家不同的需要。第一,全球范围内最为知名的光学定位的算法叫OptiTrack,除此之外,也在今年美国的GDC上推出了光学+无标记技术,可实现无需任何穿戴设备,能达到对手指、对手腕等非常精确的指尖位姿信息的获取。同时再把光学的技术跟它做融合以后,其实可以既保证光学的精度,也保证无标记的便捷性。 今天多次提到了灵巧手,其实是为了机器人末端的数据采集,实现了斯坦福大学UMI夹爪的逻辑,自建了UMI夹爪硬件结构,也自建了slim算法,这套设备相信在座各位在电视上看到过一些机器人训练场来叠衣服,拿取物品的视频,这个效率基本是分钟级的,才能完成一个动作,如果用UMI这套算法的话,基本上完成一个叠衣服的动作是秒级的,只有真正的提高数据采集的效率,才能本质上解决机器人伙伴们面临的数据问题。 算法还不止于此,真正算法的核武器是大模型,刚刚提到了有大量的人形动作的数据,沉淀在一起在模型时代肯定要尝试着做一个动作模型,各位现在看到的是我们跟北京大学人工智能学院联合研发的动作大模型叫它Lydia,动作大模型能做什么呢?可以基于多模态的输入、文字的输入、音乐的输入来生成它所理解的基于文字的或者音乐的动作。到今天为止动作的丰富度、准确度已经达到了非常高的水平,并且可以在虚拟的引擎下进行路径规划,跟不同的物体进行交互。 这个产品的设计之初是为了做影视和游戏的,但是后来当机器人合作伙伴看到这款产品的时候非常兴奋,我们也在尝试把所有动作生成模型的数据变成URDF的时候,换成机器人机构的时候,是不是可以创造出直接生成机器人的动作数据,我们觉得这个为机器人的数据训练创造了一种新的思考方式。 除了数据、算法,第三个就是服务。主要是基于训练的服务,我们的训练服务其实可以强调端到端的能力,可以从数据采集、数据清理、数据修理到数据重定项等,一直到真机的状态。我们希望帮助机器人伙伴节省时间,我们把数据的事情多做一些,你们就有更多的时间解决硬件的问题和大脑的问题。 这个是我们非常紧密的合作伙伴的机器人本体,这个当时他们在参加我们的亦庄举行的机器人马拉松的时候,我们帮他们提供了数据和训练服务以后,他们也跑的非常好,我记得在网上看到一个一个网友的留言说很多机器人跑的不错,但是这台跑的最像人,跑出了中国人的精气神。 我们的高质量数据跟完善的训练服务能力也帮很多合作伙伴做的机器人训练场,包括已经上台交流过的银河的机器人训练场,深圳福田机器人的训练场等等,很多的合作伙伴都会选用我们的产品和服务来为他们进行机器人的数据训练。 接着我们在服务了大量的机器人合作伙伴之后,也意识到一个问题,相信大家看到这些也是各位对于机器人场景很痛的痛点,那就是所有本体在出货以后,自带的动作其实是非常少的,不知道大家有没有相似的感受。再有我们想加动作,训练的时间也是非常慢的。机器人训练的本体公司其实没有足够的精力顾及到不同的场景的不同细分的需求,以及不同机器人本体URDF构型又不一样,一个公司又很难解决不同机器人训练的问题,所以就会造成机器人最后几米迈入真正客户场景的时候,无论是文旅、工业生产还是进家庭等都会遇到这个问题,动作不够。 基于这样一个行业痛点,我们也是认真思考了本质上缺少好的产品、好的工具来帮助大家提升机器人的运动效率和机器人的训练效率。这样一个大的需求下,我们就推出了这样一款产品,机器人的运动调试一键重定向的平台。这个画面上起步是一个白模的构型,我们在平台上可以选择选宇树机器人还是其它家的机器人,先选一个机器人的URDF。接着可以选择一个你想要的动作,因为我们有丰富的动作数据库,当然也可以定制,当你选择好你的动作之后,重定向到一个机器人身上对我们来说是分钟级的,如果有了这样一个产品,相信对于机器人的动作训练将会达到一个更高的效率,更好的效果,相信能够帮助把机器人推进最终的应用场景会起到非常重要的作用。 这个是目前拿到的已经开源的状态下的主流头部机器人厂商他们的机器人构型,都通过我们的数据和训练已经打通了,我们也希望能够帮助这些具身智能的合作伙伴们,把你们的产品能更好的,更加匹配客户需求的推向客户场景。 这是一个机器人在跑,这就是松延动力的机器人在参加亦庄机器人马拉松之前训练时候的视频,当我看到这个视频的时候,本人是非常有感触,漆黑的环境下小小的身体努力的向前跑着,看到这个以后,我们所处的AI大的环境包括现在所处的机器人发展向前的大环境有诸多的不确定性,但是否就像机器人一样,看到周围还是有灯光的,所有行业同仁们聚在一起,虽然前路有诸多的不确定,虽然颠簸,但是一直向前,终将会走出这片黑暗。 同时机器人小脑机器人运动控制的一家企业,我们也想跟所有做具身智能的合作伙伴们做一个保证,我们在你们的身后,你们就永远不怕跌倒。谢谢! 新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。
下一篇:没有了