纠纷奇闻社交美文家庭
投稿投诉
家庭城市
爱好生活
创业男女
能力餐饮
美文职业
心理周易
母婴奇趣
两性技能
社交传统
新闻范文
工作个人
思考社会
作文职场
家居中考
兴趣安全
解密魅力
奇闻笑话
写作笔记
阅读企业
饮食时事
纠纷案例
初中历史
说说童话
乐趣治疗

AI算力芯片那些事儿

1月21日 天浪楼投稿
  摘要:
  1相比于ASIC芯片,GPGPU具有更强的通用性。主流的AI加速芯片市场上,GPGPU占到90的市场份额。
  2传统的小体量模型依赖CUDA,因此GPGPU更加合适,而大模型对于CUDA生态的依赖小,因此GPGPU和ASIC的差距不明显。但是国内的大模型训练目前只有GPGPU可以完成,ASIC还不够成熟。
  3第一梯队的海光芯片(深算1号)可以运行通用的大模型,只是效率比较差。第二位应该是华为的昇腾910,但是只能运行华为自己优化后的大模型。寒武纪只能运行大模型的推理。景嘉微不属于这个市场。沐曦的C100预期性能对标英伟达的H100,壁仞的BR100受到了美国商务部的限制。目前最值得期待厂商的是沐曦。
  4AI芯片的硬件门槛不高,软件门槛较高。在几个核心专利中国内都没有积累,因此会受到美国限制。
  5如果英伟达新品发布节奏不变,国内外的差距很可能逐渐增大。
  6GPT3,openai训练使用了1万张A100,训练了14。8天左右。每个用户的请求需要5张A100来推理。GPT4估计大约需要2万3万张A100,训练一个月左右的时间。这些比例都是线性的。
  7假设十个大厂要做大模型,可能每家需要2000片A100,换算到国内芯片再乘上一个参数,比如1。52,大概是30004000片,那么十家就是3万4万片。但是前提是产品具有充足的稳定性。
  8国内模型品质差,数据集不足,并且算力与海外相差甚远。
  9AI算力芯片折旧一般23年,最长不超过5年。从2019年开始,算力需求每10个月会翻一番,产品更新迭代很快。
  10国内几家头部互联网厂家都向英伟达下了1。5万1。6万的A800和H800订单,每家的金额在十几亿美金左右。大概保证在2024年能有足够的产能。
  11中文没有逻辑对应的语义库,厂商之间数据不互通,并且存在一定问题。
  交流正文:
  Q:GPGPU和ASIC芯片在AI算力中分别承担什么样的角色?
  A:早期开放框架基于GPGPU架构实现,因此软件生态更为成熟,对于初级客户来说,上手使用更加方便。GPGPU的通用性也更好,架构更加适合AI中针对模型的训练以及针对通用模型的部署。对于ASIC芯片来说,如果客户对于模型有深度的研究,也有能力对模型进行特殊的定制化处理,那么ASIC芯片的产品和解决方案有更高的性价比。ASIC芯片由于模型中特殊算子、特殊结构已经完成了硬件的固化,因此对于一些较大的改动,或是一些与硬件架构强相关的计算来说,可能会存在一定的限制。
  总体来说,如果模型已经比较成熟,改动都在有限的范围内,那么IC芯片具有更高的性价比,但如果是一个初步的模型,未来需要不断地演进和完善,那么GPGPU是更合适的。
  Q:市场上主要关注的AI算力芯片,尤其是海外厂商,如英伟达,都是GPGPU吗?
  A:对,市场上主流的AI加速设备,GPGPU大约占了90的市场份额,剩下的10是一些FPGA、ASIC类的产品。
  Q:如果换一个角度理解的话,我们现在所处的阶段还不成熟,所以更适合通用性强的GPGPU,如果发展成熟之后,才会需要更多的ASIC芯片。
  A:这分为两部分解释。第一,传统的AI相对于目前的大模型来说,可以称之为是小模型的AI,比如早期的CV算法(人脸识别、语音识别、自动应答),这些模型的体量很小。而这个时期的模型很多都是基于英伟达的CUDA生态开发的,使用的框架(如PyTorch、Tensorflow)只是利用了一部分,还有一部分是直接调用CUDA的,这个阶段GPGPU是最合适的。如果现在客户的主营业务还是在这个层面上,那么GPGPU会更加适用。第二,如果客户模型已经基本固化,不会发生大的变化,那么在这种情况下可以采用ASIC,ASIC芯片可以针对它原有的模型做深度的定制化。但是大模型有一定的区别,大模型更加依赖框架,比如Tensorflow和PyTorch,而对于CUDA生态的依赖非常小,在这种情况下,GPGPU和ASIC的重要性的差距就变得很小。这个时候,用户更加关注芯片对于框架的支持和性价比,不存在CUDA产生的影响。
  Q:国内的大模型主要使用GPGPU还是ASIC?
  A:目前能运行大模型训练的只有GPGPU,如英伟达的A100、A800、H100、H800,效率也是最高的。目前ASIC没有大规模的部署,很多ASIC的厂家集中在国内,这些厂商处于早期的阶段,产品不够成熟。但是在一些场景中,我们经过测试发现,ASIC支持大模型的效率高于GPGPU。
  Q:国内的厂商,寒武纪、景嘉微、海光和昇腾,性能达到了海外什么层级的水平?
  A:第一,景嘉微。我们认为景嘉微不是做AI芯片的厂商,景嘉微的产品目前只能用于图形处理、图像渲染,未来可能能实现光线追踪。目前景嘉微最好的JM9系列产品,大概达到英伟达GTX1050的水平,只能算入门级GPU。第二,寒武纪。寒武纪最好的产品是思元590,这款产品在文心一言中有小规模的部署,大概几百件,并且也只是文心一言中众多业务场景的一小部分,没有实现大规模部署。我们认为寒武纪的产品只能用于大规模推理中的一小部分场景,还不能做大模型训练,还有许多需要弥补的地方。第三,华为昇腾。华为昇腾只能用于华为自身生态中的大模型业务,通用性差。比如昇腾不能做GPT3,因为昇腾910不支持32位浮点,而目前大模型训练几乎都要使用32位的浮点,所以华为昇腾芯片只能利用华为开发的框架(如MindSpore),在加上优化好的大模型,比如盘古CV。任何公开模型都必须经过华为的深度优化才能在华为的平台上运行,而这部分优化工作华为还没有开始,所以我们现在认为华为只能运行自己闭环的大模型产品。第四,海光信息。海光的深算1号可以运行大模型,目前正在开发深算2号。深算1号相当于英伟达的P100的水平,但是性价比低,即便在openai最早训练GPT3的时候,也采用了V100芯片。此外,海光还存在迭代问题,因为海光只拿到了AMD第一代GPGPU的授权。
  Q:P100相当于那一年的产品?
  A:大概是20142015年的产品。
  Q:目前海光是可以排在第一梯队吗?
  A:对,海光的芯片可以运行通用的大模型,只是效率比较差。第二位应该是华为的昇腾910,但是只能运行华为自己优化后的大模型。寒武纪只能运行大模型的推理。景嘉微不属于这个市场。
  Q:其他AI芯片厂商有什么比较重要的吗?
  A:沐曦,今年6月会发布第一款AI训练产品C100,但是还需要经过一些内部的调试、软件适配等,预计在今年年底会对外发布。目前来说,从公布的性能指标来说,C100接近于英伟达的H100的水平。壁仞,最早的一代产品BR100,本身指标是对标H100的,但是由于美国商务部的禁止条款,壁仞必须把互联带宽降低一半,因此产品要重新设计,影响产品进度,并且性能也受到了影响。目前BR100还在内幕测试过程中,距离真正的批量使用大约还需要半年的时间。天数智芯的芯片只能勉强做大模型推理。百度的昆仑芯只能勉强用于大模型推理,并且是基于Paddle平台的,通用性差。
  Q:是不是目前最值得期待的就是沐曦的产品?
  A:对,从团队背景来讲,沐曦的团队背景经验是最丰富的,沐曦的一些核心人员,是参与AMD的MI100、MI200产品开发的,这都是AMD目前最主流的GPGPU产品。从产品规划来看,沐曦产品对标H100,未来实现量产大概与英伟达只有一代左右的差距,因此目前来看是与英伟达最接近的。壁仞还需要再观察BR100的应用情况,因为受到美国商务部禁止,目前还没有看到具体的性能表现。
  Q:如果景嘉微和沐曦合作,是否能获得长足的进步?
  A:应该可以。首先,这两款产品的底层架构是GPU,景嘉微是传统GPU,沐曦是GPGPU,存在互相借鉴的可能性。如果景嘉微采用了沐曦的产品和技术,那么就能从传统GPU市场一下跃升到AI市场。
  Q:AI芯片的门槛应该是非常高的,为什么会有这么多初创型的企业涉足这个领域?
  A:首先,AI芯片设计的门槛不是很高,比如GPGPU架构上没有什么高深的要求,而且很多核心部件、核心功能模块都有现成的IP,比如总线接口PCIE、内存以及内存控制器的HBM、DDR、GDDR。很多加速的组件都有现成的内容,可以用成熟的产品代替。所以唯一要做的就是把内部的逻辑加速单元整合起来,发挥对AI计算的优势,所以硬件上门槛不是很高,但是软件门槛很高。因为在小模型的时代,软件必须解决兼容扩大的问题,还要发挥硬件本身的设计性能。在大模型时代,就要做好对于一些框架的支持,所以我们认为设计AI芯片,从技术角度上来说难度不高,主要在于是否拥有整个软硬件的整体设计能力。根据市场上现有模型以及前景模型的内部架构需求,设计硬件的底层,这样才能实现效率提升。否则如果硬件完成,用软件弥补硬件设计的失误,那么就需要消耗很多的软件资源,硬件的效率也不能充分发挥。这些初创企业都是从硬件着手的,门槛并不是非常高。
  Q:那这些企业是自主可控的吗?
  A:不是纯粹的自主可控,因为一些核心IP都是国外的产品,并且企业依赖台积电。
  Q:如果抛开流片不谈,只看设计方面,会不会受到美国限制?
  A:会,因为这里面存在几个核心的专利,比如PCIE,目前掌握在cadence和Synopsis这样的公司手里,都是美国公司。HBM基本上只来自于三星、海力士和镁光,如果美国商务部有禁令,这些企业都不能像中国企业提供产品。纯国产化在这方面的确没有相应的积累,所以会被美国卡脖子。
  Q:海光是否能做到不受影响?
  A:第一个问题是海光在美国禁运产品名单中,所以海光投片只能通过第三方代理公司,导致投片价格会偏高、产能会不足。第二个问题是海光拿不到新一代架构的授权,限制了海光产品迭代,可能会与海外主流产品代差越来越大,这是海光最大的问题。
  Q:海光当前的架构是买断的吗?
  A:对,这一代架构不会侵权,唯一要解决的是产能供应链的问题。
  Q:昇腾、寒武纪、沐曦这三家企业会不会涉及到海外侵权的可能性?
  A:昇腾不涉及,因为昇腾涉及的IP都是买断的,但是昇腾面临下一代产品更迭的问题,新一代IP没法拿到海外厂家的支持,所以昇腾全部的IP都需要国内的替代,但是国内目前还非常不成熟。目前昇腾920和昇腾910差距不大,只是生产工艺使用了中芯国际的14纳米工艺。沐曦目前不在美国商务部的黑名单中,用的很多核心是国外的厂家的,所以如果沐曦严格遵守美国高端芯片的条款,短时间内不存在风险,还是可以用国外的IP和台积电。
  Q:中国的算力芯片对于美国的英伟达巨头来说,是否还有追赶的可能性?差距是否在缩小?
  A:差距在一点点缩小,但是缩小的难度会越来越大。如果英伟达仍然保持每十个月发布一代产品,对于中国厂商来讲,可能差距会慢慢增大。因为硬件的迭代投入是巨大的,风险也很高,中国厂商没有雄厚的资金投入,所以追赶有一定的难度。所以如果英伟达产品发布节奏不变,那么这个差距可能会越来越大,尤其是在美国商务部存在很多禁令的约束情况下。
  Q:英伟达的CUDA在未来AI算力芯片中是越来越重要还是不重要?
  A:在小模型上CUDA仍然很重要,但在大模型上它的地位越来越轻了。如果未来中国市场以小模型为主,那CUDA还是有很大的影响力,而如果是以大模型为主,对于CUDA的依赖就越来越小了。
  Q:能否简单介绍一下为什么大模型对于CUDA的依赖小?
  A:大模型底层基于transformer的架构,增加参数和层数。而transformer是完全基于框架实现的架构,并没有使用CUDA的特殊算子,所以不需要必须兼容CUDA。而小模型早期都调用了CUDA的算子,所以是绕不开CUDA的。
  Q:国内大厂的大模型底层算力是什么?
  A:他们的底层算力都是英伟达的,比如V100和A100。
  Q:V100、A100的存量还有多少?
  A:目前腾讯、字节、百度的存量都不超过2000片,只有阿里大约能够过万。
  Q:那华为情况呢?
  A:华为只有自己的昇腾910,围绕盘古。目前比较流行的GPT2、GPT3都无法运行。
  Q:这是不是说明华为的算法是自研的?
  A:对,华为基于开源的算法,针对昇腾910的特性做了很大程度的优化。
  Q:GPT的训练和推理需要多少算力?
  A:以GPT3为例,openai训练使用了一万张A100,训练了14。8天左右。使用A100类似的产品,如果以512张卡来训练,大约需要3个月;如果用1024张卡,大约需要1个月;如果用2000张卡,大约需要18天左右。GPT3或者说ChatGPT,对于每个用户的请求大约需要5张类似A100的卡进行推理,随着并行客户增加,硬件需求线性增加。
  Q:如果GPT4大概量级有多大增长?
  A:目前没有公开宣传,我们估计大约需要2万3万张A100,训练一个月左右的时间。
  Q:这些比例都是线性的吗?
  A:对,GPT4和ChatGPT训练的数据集没有太大变化,最大的变化是参数发生变化,算力增加完全依据模型参数增加的比例,数据量大概还是四十多T,没有太大变化。
  Q:在中国的算力需求怎么样进行量化?
  A:目前国内最大的模型是阿里达摩院的M6,拥有十万亿个参数,体量是最大的。对于大模型训练的场景,国内厂家只能用很短的时间做一次大模型训练,没有专门的训练场景,对于推理来说资源更加紧张,所以目前百度不能广泛地、免费地提供服务。目前国内的模型比国外差,但是参数、体量对算力的消耗不相上下。所以目前国内模型品质差,数据集不足,并且算力与海外相差甚远。
  Q:假设十个大厂要做大模型,可能每家需要2000片A100,换算到国内芯片再乘上一个参数,比如1。52,大概是30004000片,那么十家就是3万4万片,可以这样理解吗?
  A:2000片A100训练GPT3(不是ChatGPT),大约需要一个月,存在时间代价。目前国内芯片的整体性能只有A100的一半左右,那么大概需要4000片,十个厂商是4万片,这个是正确的。
  Q:这需要花多长时间?
  A:一般这种训练都是十几天。一个很重要的前提是,国内的产品稳定性都必须绝对高,如果在大模型训练过程中,中间出现一两个节点的宕机,以及一两个节点计算失效,那么这个大模型就要推翻重来一次。一般训练过程中都需要checkpoint保存结果,如果稳定性不好,第一次checkpoint都做不到,就没法实行了。如果产品不稳定,那么大模型训练的时间就会很长。国内某家大模型,最早做训练的时候使用了2400片左右的A100,大概训练了8天左右。后来他们觉得资源耗费大,就去海光平台做训练。海光提供了6万片,用了一个月没训练完成,主要原因就是海光芯片出现掉线的问题。产品稳定性是需要时间打磨的。
  Q:这个稳定性、可靠性不是算力本身,更取决与生态和软件。
  A:取决于软件和工程能力。在运行过程中,需要解决很多BUG,还有软硬件结合,中间会不会有很多冗余的机制。这些都需要时间和成本作为代价,但是商业客户一般不会给这个机会。我们认为,如果中国想要发展大模型,那政府的介入是不可或缺的,政府介入可以给企业带来资金支持,从而使企业生产更多的产品,或者是让一些企业有意愿部署大规模的算力。其次,政府需要补贴帮助第三方做大模型开发的企业,让他们有意愿在新平台尝试。
  Q:AI算力芯片折旧一般是多久?
  A:一般23年,最长不超过5年。
  Q:国内的高端算力芯片是不是很快就报废了?
  A:是的,从2019年开始,算力需求每10个月会翻一番,对于企业来讲,他们更愿意追求高算力的硬件产品,对于老产品就会慢慢从业务中剥离。
  Q:所以在一两年后,高端算力芯片会面临非常短缺的状态?
  A:即使目前AI的算力芯片对于很多大厂来说也是非常短缺的。
  Q:AI算力芯片未来是否会演变成寡头垄断。
  A:对,不会做到百花齐放。因为在不同应用场景下一家独大,对于整个生态的影响和标杆作用非常明显。如果一家企业有意愿选择替代解决方案,往往要求产品比主流厂家有1。52倍的性价比优势,这个对于初创型企业是一个非常大的门槛。
  Q:国内的AI算力芯片市场,您看好哪些企业?
  A:华为,拥有完整的解决方案,在某些应用场景下是能做的。沐曦、壁仞,他们从硬件架构到软件方面,相对来说在国内厂商中脱颖而出。互联网厂商的投入,比如阿里达摩院投入了一款GPGPU产品,宣传指标大概是A100的两倍,互联网企业有应用场景,也有雄厚的资金支持。
  Q:央国企有可能吗?
  A:央国企比较难。第一,AI芯片需要较大的人员投入,组建团队的成本比较高。第二,央国企面临没有积累的问题,从无到有的跨越难度是很大的饿。如果国家拿出资金专门组建团队研发,未来23年可能会打磨出一款比较合适的产品。如果政府没有扶持的话,央国企不会做这种投入。
  Q:6万片海光GPU出现宕机的情况,是因为运行问题吗?
  A:对。第一,海光这代产品时AMD第一代产品,本身没有经过大规模部署和验证,所以存在硬件上的不稳定因素。第二,配合产品需要一个非常稳定软件架构,但是目前运营方开发能力不足。随着集群规模增大,出现错误的风险也增大,而企业很少遇到大规模一次性使用的场景,所以产品不够成熟。
  Q:硬件上什么量级的芯片会导致中断?
  A:如果单片发生单点故障,那么在检查点和出现故障之间的这部分业务就失效了,需要重新计算。
  Q:说明断电数目很多?
  A:对,断电数很多并且不定时随机出现,产品之间的稳定性不一致。
  Q:下一代海光的硬件和软件更新后的效果是什么?
  A:深算2号首先要解决生产问题,有一些提升,但是没有解决硬件稳定、可靠性问题。此外,由于修改制程,还可能存在一些新问题。并且,如何解决大规模并行环境下的可靠性问题,海光没有太多的试验场景。
  Q:对比英伟达的2400片A100,断点大概有多少?
  A:总共宕机3次。
  Q:所以二者的差距还是很大的。
  A:对,并且宕机3次,8天左右的时间计算完成了。海光的产品中间宕机不断,一个月都没有完成。
  Q:芯片宕机是不可预知的吗?所以也没有很好的规避方法?
  A:对。硬件规避有一定的难度,因为需要纯粹地提高硬件设计,比如信号质量和出现问题后的快速恢复。所以更需要软硬件结合,比如软件要随时检查硬件是否正常运行,如果出现宕机能否及时保护现场。
  Q:软件是海光自己设计吗?
  A:不是,应该是由平台使用方来设计,海光只提供硬件的驱动和接口。
  Q:寒武纪会面临随机宕机的问题吗?
  A:寒武纪的产品目前不能用于大模型下,所以没法判断。主要是应用在推理场景,如果出现宕机,只是会导致推理失效,那么可以重新加载,用户端反馈只是一定的延迟,影响不明显。
  Q:寒武纪的思元590参数指标比海光的Z100要好,为什么不能进行大模型训练呢?
  A:大模型训练需要几个前提。第一,需要有充足的算力,这方面问题不大。第二,需要有较大的内存放置大模型,寒武纪的卡相对内存容量较小,但是这不是主要问题。第三,片间互联的解决方案,寒武纪要比海光差。最重要的,寒武纪对于Tensorflow和PyTorch框架支持不好,不稳定,如果要运行大模型,需要额外的开发工作量。
  Q:华为昇腾会面临随机宕机的问题吗?
  A:会。但是华为的全套都是自己做的,比如管理平台和框架,所以有一套完整的闭环的解决方案。
  Q:如果海光向阿里、百度等厂商,也会存在这样的问题吗?
  A:会有所改善,因为百度和阿里在大规模集群调度和部署上具有经验。但是由于海光的产品性能较差,性价比也比较低,因此百度、阿里不会考虑海光的产品。
  Q:如果A100的库存用完了,他们宁愿买H100被阉割的芯片,也不会买国产芯片吗?
  A:不一定。如果国产算力芯片整体性价比能够达到英伟达6070,就有购买的意愿,但是目前还达不到。
  Q:目前国产芯片能达到多少?
  A:如果和英伟达比,大约是30。对于寒武纪,硬件指标大概接近A100,价格比A100低,但是寒武纪的供应链很紧张,没法提供大规模的部署,并且开发需要大量人力配合客户开发,寒武纪不一定有意愿投入。
  Q:所以目前来看,国内要做大模型,还是要买英伟达的阉割版芯片吗?
  A:对。国内几家头部互联网厂家都向英伟达下了1。5万1。6万的A800和H800订单,每家的金额在十几亿美金左右。大概保证在2024年能有足够的产能。留给国内厂商的时间不多,既要解决性能问题,也要解决软件兼容问题,难度很大。国内厂家更多关注大模型的推理场景。
  Q:推理方面一个用户需要5张A100,那么一亿个用户呢?
  A:以chatGPT来讲,需要5张A100才能满足一个客户的一次性访问。线性叠加指的是并行访问,以谷歌为例,并行访问量每秒钟大概是20万次,未来GPT大概在45万次。
  Q:如果按照十万次算,那就需要五十万张A100吗?
  A:对,但是平时可能没有这么多访问的人。即便是峰值访问,不一定必须给客户实时响应,延迟几秒钟是没问题的。
  Q:推理卡必须要用A100吗,还是性能低一点的也可以?
  A:如果算力接近A100,1秒钟大约生成1520次,可以满足需求,可以多片集成到一起,所以低端卡可以做到。
  Q:所以国内厂商在训练卡上基本上放弃,集中在推理卡上?
  A:对。目前大家没有计划做训练,专注在推理上,因为推理的难度较小。昆仑芯大概每秒钟产生34个词,那可能延迟在十几秒,对于用户来说不是完全不能接受。
  Q:推理卡您觉得国内哪个厂商做的最好?
  A:目前还没有大规模部署,所以暂时没法评价,目前大家都在尝试。
  Q:国产FPGA企业能否进入AI产业?
  A:对于小模型来说,体量小,占用内存小,是可以进入的。FPGA支持浮点,但是需要消耗额外的资源,并且算力也受限。此外,FPGA如果需要门阵列存储,也非常消耗资源。但是对于大模型来说,完全不可以,因为数据类型不符合,内存空间太小,也不支持片间并行。
  Q:中国能否通过数据差异化建立比较优势?
  A:国内企业在大模型上正探索两条路。第一,能否用大模型裁剪出小模型,应用到特殊场景,就可以解决算力的需求问题。第二,做一些数据方面的工作,但是目前中文数据有先天不足,找不到对中文逻辑深入分析和预判的语义库。其次,国内数据存在孤岛问题,对数据集的体量造成了影响。此外,国内的数据存在很多政治因素,有些东西是不能查询、不能回答的,就导致整个数据的质量下降。如果这些问题不能解决,用数据方面弥补是不现实的,想达到国外大模型在中文方面的水平都很困难。
  Q:中国的大模型数据集与国外是不同的吗?
  A:对。国外的大模型针对中文数据做了一部分训练,但是比例很小,不到1。此外,国内的数据集都是针对各家自己的数据进行训练,不是通用的。还有就是国内目前依赖翻译,将内容翻译成英文,再借助英文语义进行推理,文心一言就是这样,最后反过来进行中文输出。
  Q:百度的数据质量在大厂里面已经算好的了。
  A:百度相对来说,做的更多是通用的数据训练,而其他厂商都是针对特定场景做了训练,比如阿里的M6就是针对淘宝、支付宝客服,没有通用型的。
投诉 评论 转载

都灵主席既然什克身价7000万欧,布雷默价格也应高于报道金额直播吧7月12日讯都灵主席凯罗出席活动时接受媒体的采访,谈到了队内中卫布雷默(合同2024年到期)的转会传闻,他表示既然什克里尼亚尔身价7000万欧,那么布雷默的价格也应该比报……我在阳圈240小时围炉煮茶话冬雪日寒茶暖勿推却寒江雪夜匆匆客草野荒寒待君归从12月14日返京后,就开始了一步一步走进了阳圈的中央。此时是复杂的心情,矛盾的思维。三年来一认为离我很远,……游戏日报不靠出海不等新游,游戏公司凭老产品也能赚钱本栏目由游戏日报出品,主要覆盖游戏产业链热点事件和行业未来趋势相关内容。本文为第567期,如有建议或想分享的观点,欢迎联系游戏日报。焦点消息日前,游戏日报发布了上半……湖人输球揪出罪魁祸首!霍华德砍14163帽仍遭弃用,主帅该反102105!湖人在主场遗憾不敌快船,无缘迎来2连胜,而距离第六的掘金,也已经落后了6。5个胜场,想要获得直接进入季后赛的名额,越来越难了。这场备受关注的洛杉矶德比打得极……KubernetesService暴露的两种方式一、前言kubernetes集群中,pod是多变的,可以被新建或删除,而且ip不稳定,不方便集群外部访问,所以提供了一种新的资源Service,就是就是asetofPod……最佳观赏季!如果你在厦门,快看秋分已过厦门街角的多种植物焕发出了新的生机进入了最佳观赏期你是否感觉到了它们带来的变化又是否沉醉其中?厦门的九月不是单一的色彩是五颜六……勇记我老公没商谈就买了500刀勇士夺冠看他赚了5000就不追直播吧7月24日讯勇士记者KylenMills今日发推表示她丈夫背着她买了勇士高赔率夺冠,并因此赚了5000美元。KylenMills写道:我丈夫不应该在没和我商量的情况……3分钟快手早餐!香酥可口营养佳,春天长高多吃它一年之计在于春,春季是孩子长身体的关键时期,其生长速度会远高于秋冬季,妈妈们在这个黄金期尤其要注意孩子的膳食营养搭配,助力孩子的生长发育!除了早睡、多运动、适当晒太阳补充……AI算力芯片那些事儿摘要:1相比于ASIC芯片,GPGPU具有更强的通用性。主流的AI加速芯片市场上,GPGPU占到90的市场份额。2传统的小体量模型依赖CUDA,因此GPGPU更加合……欢呼!国乒抗日奇兵立大功,连赢3位日本选手,40吊打进决赛北京时间7月22日下午,乒乓球WTT布达佩斯支线赛女单半决赛开打,曾多次打爆伊藤美诚、平野美宇等日本各大主力的国乒抗日奇兵、特殊打法陪练何卓佳再次发威,40横扫另一位日本主力芝……4K价位轻薄本推荐华硕a豆14Pro实力领衔,联想宏碁也有人一到每年的7、8月份,准大学生以及毕业生都会面临着选购或者是置换笔记本电脑的需求。而在众多笔记本产品中,又以45K价位的轻薄本最受欢迎。不仅如此,如今无论是学生党还是打工族,他……2022年好评率最高的三款机型,性能强悍价格不贵,有你在用的不得不说今年的手机市场真的是相当热闹,十几款新机的发布让消费者眼花缭乱,一时间不知道该如何选择。今天妖妖就给大家推荐几款性能强悍的价格不贵,而且好评率还很高。看看有你在用的吗?……
买面粉时,看清包装上这几个数字五一假期我市接待游客超18万人次难忘岁月组曲(六)3000元档强悍旗舰级手机恐龙和鸡翅是什么关系?为何鸟类被称作是活着的恐龙?让巴菲特多次栽跟头的陷阱,小心了民国上海滩第一名媛三段恋情,两段婚姻,宋子文苦恋一生来自日本的小屏手机BALMUDAPhone一年50万都不给,亨利拒绝火箭安排返回欧洲,哈金斯戴斯驰援毒俄罗斯开发兆芯主板,替代AMD及Intel的x86处理器秋冬易干燥,想要皮肤好,多吃这五种蔬菜,滋润肌肤,保持光泽2023年,4G手机真的过时了吗?
卸下防御,勇敢活自己经典伟人名言美丽的花园作文350字三篇小米进入日本市场鸿蒙系统是不是套壳Android的?看ChatGPT如何回答暖男的标准是什么新时期暖男标准重磅出炉和光同尘什么意思(和光同尘是什么境界)吊带衫搭配条纹阔腿长裤彰显经典的性感高街范小学现代名人作文素材张天爱孤城闭顺利杀青古装造型清丽婉约引期待学校要不要组织学生春游的高考满分作文掌握自己生存命脉的6个关键步骤

友情链接:中准网聚热点快百科快传网快生活快软网快好知文好找美丽时装彩妆资讯历史明星乐活安卓数码常识驾车健康苹果问答网络发型电视车载室内电影游戏科学音乐整形