游戏电视苹果数码历史美丽
投稿投诉
美丽时装
彩妆资讯
历史明星
乐活安卓
数码常识
驾车健康
苹果问答
网络发型
电视车载
室内电影
游戏科学
音乐整形

量子AI应用量子计算与神经网络

  概述
  神经网络是当下计算应用中发展最快,使用最广的机器学习算法。然而,由于传统的神经网络只能使用单个网络来存储许多算法模式,随着应用不断复杂化导致网络结构不断扩大,存储性能瓶颈已逐渐凸显。
  而量子神经网络是根据量子计算机的特性设计的神经网络。研究者们根据量子计算机所提供的基本计算单元(即量子逻辑门)进行量子线路设计,以实现神经网络的计算。通过在量子计算机或量子器件的基础上构造神经网络,利用量子计算超高速、超并行、指数级容量的特点,来改进神经网络的结构和性能,可以使用许多网络来存储许多算法模式。
  1。神经网络
  1。1什么是神经网络
  神经网络,也称为人工神经网络(ANN),是机器学习的子集,并且是深度学习算法的核心。其名称和结构是受人类大脑的启发,模仿了生物神经元信号相互传递的方式,以数学和物理方法及从信息处理的角度对人脑生物神经网络进行抽象并建立起来的某种简化模型。
  人工神经网络(ANN)由节点层组成,包含一个输入层、一个或多个隐藏层和一个输出层。每个节点也称为一个人工神经元,人工神经元是神经网络的基本元素,它们连接到另一个节点,具有相关的权重和阈值。如果任何单个节点的输出高于指定的阈值,那么该节点将被激活,并将数据发送到网络的下一层。否则,不会将数据传递到网络的下一层。下图是一个人工神经网络的构造图,每一个圆代表着一个神经元,他们连接起来构成了一个网络。
  神经网络反映人类大脑的行为,允许计算机程序识别模式,以及解决人工智能、机器学习和深度学习领域的常见问题。其依赖于训练数据随时间的推移不断学习并提高其准确性。然而,一旦这些学习算法的准确性经过调优,它们便是计算科学和人工智能中的强大工具,我们可以快速地对数据进行分类。与由人类专家进行的人工识别相比,语音识别或图像识别任务可能仅需要几分钟而不是数小时。最著名的神经网络之一是Google的搜索算法。
  1。2人工神经元
  人工神经元的工作原理,如下图所示
  上面的x是神经元的输入,相当于树突接收的多个外部刺激。w是每个输入对应的权重,代表了每个特征的重要程度,它对应于每个输入特征,影响着每个输入x的刺激强度。假设只有3个特征,那么x就可以用
  。b表示阈值,用来影响预测结果。z就是预测结果。
  所以有:
  上面这个式子在业内我们称之为逻辑回归。在实际的神经网络中,我们不能直接用逻辑回归,必须要在逻辑回归外面再套上一个函数,这个函数我们就称它为激活函数。
  如在1943年,McCulloch和Pitts将上图的神经元结构用一种简单的模型进行了表示,构成了一种人工神经元模型,也就是现在经常用到的MP神经元模型,如下图所示:
  从上图MP神经元模型可以看出,神经元的输出为
  其中为神经元的激活阈值,函数f()也被称为是激活函数。
  1。3神经网络的类型
  1。3。1感知器
  感知器是最古老的神经网络,由FrankRosenblatt于1958年创建。它有一个神经元,是神经网络最简单的形式:
  上图中,x是神经元的输入,代表着输入特征向量,Output是预测结果。
  1。3。2前馈神经网络(FNN)
  前馈神经网络(FeedforwardNeuralNetwork,FNN)是最早发明的简单人工神经网络,由输入层、一个或多个隐藏层以及输出层组成。在前馈神经网络中,各神经元分别属于不同的层。每一层的神经元可以接收前一层神经元的信号,并产生信号输出到下一层。第0层叫输入层,最后一层叫输出层,其它中间层叫做隐藏层。整个网络中无反馈,信号从输入层向输出层单向传播,可用一个有向无环图表示。
  1。3。3卷积神经网络(CNN)
  卷积神经网络(CNN)是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一。卷积神经网络具有表征学习能力,能够按其阶层结构对输入信息进行平移不变分类,通常用于图像识别、模式识别和或计算机视觉。这些网络利用线性代数的原理(特别是矩阵乘法)来识别图像中的模式。卷积神经网络的构成分为:输入层、卷积层、池化层和全连接层,其结构如下图所示。
  (1)输入层
  整个网络的输入,一般代表了一张图片的像素矩阵。上图中最左侧三维矩阵代表一张输入的图片,三维矩阵的长、宽代表了图像的大小,而三维矩阵的深度代表了图像的色彩通道(channel)。
  (2)卷积层
  卷积层是卷积神经网络(CNN)中最为重要的部分。卷积层中每一个节点的输入只是上一层神经网络中的一小块,一般来说,通过卷积层处理过的节点矩阵会变的更深。
  (3)池化层
  池化层不改变三维矩阵的深度,但是可以缩小矩阵的大小。池化操作可以认为是将一张分辨率高的图片转化为分辨率较低的图片。通过池化层,可以进一步缩小最后全连接层中节点的个数,从而到达减少整个神经网络参数的目的。池化层本身没有可以训练的参数。
  (4)全连接层
  卷积神经网络中的全连接层等价于传统前馈神经网络中的隐含层。全连接层位于卷积神经网络隐含层的最后部分,并只向其它全连接层传递信号。特征图在全连接层中会失去空间拓扑结构,被展开为向量并通过激励函数。
  1。3。4循环神经网络(RNN)
  循环神经网络(RNN)是一种使用顺序数据或时间序列数据的人工神经网络。这些深度学习算法通常用于顺序或时间问题,例如语言翻译、自然语言处理(nlp)、语音识别和图像字幕;它们被整合到流行的应用程序中,例如Siri、语音搜索和谷歌翻译。与前馈和卷积神经网络(CNN)一样,循环神经网络利用训练数据进行学习。
  (循环神经网络(左侧)和前馈神经网络(右侧)的比较)
  循环网络的另一个显着特征是它们在网络的每一层共享参数。虽然前馈网络在每个节点上具有不同的权重,但循环神经网络在网络的每一层内共享相同的权重参数。也就是说,这些权重仍然在通过反向传播和梯度下降的过程中进行调整,以促进强化学习。
  1。4神经网络与深度学习
  训练深度神经网络的过程就叫做深度学习。网络构建好了后,我们只需要负责不停地将训练数据输入到神经网络中,它内部就会自己不停地发生变化不停地学习。打比方说我们想要训练一个深度神经网络来识别猫。我们只需要不停地将猫的图片输入到神经网络中去。训练成功后,我们任意拿来一张新的图片,它都能判断出里面是否有猫。
  2量子神经网络
  量子神经网络(QNN)是前馈神经网络的一种,是基于量子力学原理的神经网络模型。通过将量子态的叠加思想引入到传统的前馈神经网络中,将神经网络的隐含层激励函数采用多个sigmoid函数进行叠加。
  一个sigmoid函数仅可以表示两个量级和状态,而线性叠加的sigmoid函数相邻之间有着不同的量子间隔。一个隐层的神经单元就能表示更多的量级和状态,这样通过对量子间隔的训练,训练样本输入数据的不确定性就能得到量化,不同数据将映射到不同的量级之上,利用多层的激励函数增加网络的模糊性,提高网络模式识别的准确性和确定性。
  与经典神经网络相比,量子神经网络(QNN)具有以下几个优点:
  (1)更快的计算速度;
  (2)更高的记忆容量;
  (3)更小的网络规模;
  (4)可消除灾变性失忆现象。因此其十分适合于未来数据海量、计算要求高的任务。
  2。1量子神经网络的工作原理
  人工神经网络(ANN)的许多功能源于其并行分布式信息处理能力和神经元变换的非线性。然而,量子理论的态叠加原理使QNN具有比ANN更强的并行处理能力并能处理更大型数据集。
  根据量子计算原理,一个n位量子寄存器可以同时保存2n个n位二进制数(0到2n一1),它们各以一定的概率存在。量子计算系统以这种方式指数地增加存储能力并能并行处理一个n位量子寄存器的所有2n个数,它的一次运算可产生2n个运算结果,相当于常规计算2n次操作。
  但在读出量子计算的输出结果即测量量子寄存器的态时,其叠加态将坍缩(或消相干)到其中之一个基态上,因而测量时只能测得一个结果。例如在量子神经元模型中,感知器的权矢被一个波函数0(w,t)所取代,0(W,t)是所有可能的经典权矢的量子相干叠加,当叠加权矢与环境作用时(如受到实际输入的激励),它必定会消相干到其中之一的基态上,即坍缩到经典权矢上。
  接下来我们将尝试构建一个量子神经网络,以下是量子神经网络的工作原理。
  首先向网络提供一些数据x,构建输入量子态:
  将一个二维向量x变换成一个角。
  当x被编码为量子态,我们应用一系列量子门。
  网络的输出设为(x,0)。是最后一个量子比特被测量为1〉状态的概率(Zn1代表将Z门应用到最后的量子比特),加上一个经典的偏置项。
  最后,在输出的数据中取出和x有关联的标签,用来计算样本上的损失我们将使用二次损失,如下:
  从输出的数据中可以得到网络p的预测:
  计算损失函数的梯度。
  2。2如何在量子计算机上计算梯度
  先求损失函数对i的微分:
  展开最后一项:
  通过求导可以去掉常数项。
  使用乘积法则进一步展开:
  通过Hermitian共轭,可以转化为下面这个简单的公式:
  U()由多个门组成,每一个门又由不同的参数控制,求U的偏导数只需要求门
  对的偏导数:
  我们把
  定义为相同的形式,称为G门,当然形式不是唯一的。
  定义了
  的形式后,就能找到它的导数:
  可以用G门来表示导数:
  构造出一个电路来得到所需的内积形式:
  Hadamard测试是最简单的方法首先,准备好输入的量子态,并将辅助态制备为叠加态:
  现在对应用Zn1B,约束辅助态是1:
  然后翻转辅助态,用A做同样的操作:
  最后,对辅助态使用另一个Hadamard门:
  现在辅助态等于0的概率是:
  因此如果我们用U()代替B,用U()的共轭对
  的导数来代替A,然后辅助量子比特为0的概率将会给我们(x,)对
  的梯度。
  2。3建立量子神经网络
  导入所有需要启动的模块:fromqiskitimportQuantumRegister,ClassicalRegisterfromqiskitimportAer,execute,QuantumCircuitfromqiskit。extensionsimportUnitaryGateimportnumpyasnp
  将功能(前四列)与标签分开:datanp。genfromtxt(processedIRISData。csv,delimiter,)Xdata〔:,0:4〕featuresnp。array(〔convertDataToAngles(i)foriinX〕)Ydata〔:,1〕
  构建一个为我们进行功能映射的函数。由于输入向量是归一化的和4维的,因此映射有一个超级简单的选择使用2个量子位来保存编码数据,并使用仅将输入向量重新创建为量子态的映射。为此,我们需要两个函数一个从向量中提取角度:defconvertDataToAngles(data):Takesinanormalised4dimensionalvectorandreturnsthreeanglessuchthattheencodeDatafunctionreturnsaquantumstatewiththesameamplitudesasthevectorpassedin。prob1data〔2〕2data〔3〕2prob01prob1angle12np。arcsin(np。sqrt(prob1))prob1data〔3〕2prob1angle22np。arcsin(np。sqrt(prob1))prob1data〔1〕2prob0angle32np。arcsin(np。sqrt(prob1))returnnp。array(〔angle1,angle2,angle3〕)
  另一种将角度转换为量子态的方法:defencodeData(qc,qreg,angles):Givenaquantumregisterbelongingtoaquantumcircuit,performsaseriesofrotationsandcontrolledrotationscharacterizedbytheanglesparameter。qc。ry(angles〔0〕,qreg〔1〕)qc。cry(angles〔1〕,qreg〔1〕,qreg〔0〕)qc。x(qreg〔1〕)qc。cry(angles〔2〕,qreg〔1〕,qreg〔0〕)qc。x(qreg〔1〕)
  编写实现U()所需的函数,该函数将采用RY和CX交替层的形式。从G门开始:defGGate(qc,qreg,params):Givenaparameter,returnasinglequbitgateoftheform〔cos(),sin()〕〔sin(),cos()〕u00np。cos(params〔0〕)u01np。sin(params〔0〕)gateLabelG({})。format(params〔0〕)GGateUnitaryGate(np。array(〔〔u00,u01〕,〔u01,u00〕〕),labelgateLabel)returnGGatedefGLayer(qc,qreg,params):AppliesalayerofGGatesontothequbitsofregisterqregincircuitqc,parametrizedbyanglesparams。foriinrange(2):qc。append(GGate(qc,qreg,params〔i〕),〔qreg〔i〕〕)
  接下来进行CX门操作:defCXLayer(qc,qreg,order):AppliesalayerofCXgatesontothequbitsofregisterqregincircuitqc,withtheorderofapplicationdeterminedbythevalueoftheorderparameter。iforder:qc。cx(qreg〔0〕,qreg〔1〕)else:qc。cx(qreg〔1〕,qreg〔0〕)
  将它们放在一起以获得U():defgenerateU(qc,qreg,params):AppliestheunitaryU()toqregbycomposingmultipleGlayersandCXlayers。Theunitaryisparametrizedbythearraypassedintoparams。foriinrange(params。shape〔0〕):GLayer(qc,qreg,params〔i〕)CXLayer(qc,qreg,i2)
  接下来创建一个函数获取网络的输出,而另一个函数会将这些输出转换为类预测:defgetPrediction(qc,qreg,creg,backend):Returnstheprobabilityofmeasuringthelastqubitinregisterqregasinthe1state。qc。measure(qreg〔0〕,creg〔0〕)jobexecute(qc,backendbackend,shots10000)resultsjob。result()。getcounts()if1inresults。keys():returnresults〔1〕100000else:return0defconvertToClass(predictions):Givenasetofnetworkoutputs,returnsclasspredictionsbythresholdingthem。return(predictions0。5)1
  构建一个在网络上执行前向传递的功能向其提供一些数据,对其进行处理,并提供网络输出:defforwardPass(params,bias,angles,backend):Givenaparametersetparams,inputdataintheformofangles,abias,andabackend,performsafullforwardpassonthenetworkandreturnsthenetworkoutput。qregQuantumRegister(2)ancQuantumRegister(1)cregClassicalRegister(1)qcQuantumCircuit(qreg,anc,creg)encodeData(qc,qreg,angles)generateU(qc,qreg,params)predgetPrediction(qc,qreg,creg,backend)biasreturnpred
  编写测量梯度所需的所有功能,需要能够应用U()的受控版本:defCGLayer(qc,qreg,anc,params):AppliesacontrolledlayerofGGates,allconditionedonthefirstqubitoftheancregister。foriinrange(2):qc。append(GGate(qc,qreg,params〔i〕)。control(1),〔anc〔0〕,qreg〔i〕〕)defCCXLayer(qc,qreg,anc,order):AppliesalayerofToffoligateswiththefirstcontrolqubitalwaysbeingthefirstqubitoftheancregister,andtheseconddependingonthevaluepassedintotheorderparameter。iforder:qc。ccx(anc〔0〕,qreg〔0〕,qreg〔1〕)else:qc。ccx(anc〔0〕,qreg〔1〕,qreg〔0〕)defgenerateCU(qc,qreg,anc,params):AppliesacontrolledversionoftheunitaryU(),conditionedonthefirstqubitofregisteranc。foriinrange(params。shape〔0〕):CGLayer(qc,qreg,anc,params〔i〕)CCXLayer(qc,qreg,anc,i2)
  创建一个计算期望值的函数:defcomputeRealExpectation(params1,params2,angles,backend):ComputestherealpartoftheinnerproductofthequantumstatesproducedbyactingwithU()characterisedbytwosetsofparameters,params1andparams2。qregQuantumRegister(2)ancQuantumRegister(1)cregClassicalRegister(1)qcQuantumCircuit(qreg,anc,creg)encodeData(qc,qreg,angles)qc。h(anc〔0〕)generateCU(qc,qreg,anc,params1)qc。cz(anc〔0〕,qreg〔0〕)qc。x(anc〔0〕)generateCU(qc,qreg,anc,params2)qc。x(anc〔0〕)qc。h(anc〔0〕)probgetPrediction(qc,anc,creg,backend)return2(prob0。5)
  计算出损失函数的梯度最后做乘法解决梯度中的(x,)y(x)项:defcomputeGradient(params,angles,label,bias,backend):Givennetworkparametersparams,abiasbias,inputdataangles,andabackend,returnsagradientarrayholdingpartialswithrespecttoeveryparameterinthearrayparams。probforwardPass(params,bias,angles,backend)gradientsnp。zeroslike(params)foriinrange(params。shape〔0〕):forjinrange(params。shape〔1〕):newParamsnp。copy(params)newParams〔i,j,0〕np。pi2gradients〔i,j,0〕computeRealExpectation(params,newParams,angles,backend)newParams〔i,j,0〕np。pi2biasGrad(probbiaslabel)returngradientsbiasGrad,biasGrad
  一旦有了梯度,就可以使用梯度下降以及称为动量的技巧来更新网络参数,这有助于加快训练时间:defupdateParams(params,prevParams,grads,learningRate,momentum):Updatesthenetworkparametersusinggradientdescentandmomentum。deltaparamsprevParamsparamsNewnp。copy(params)paramsNewparamsgradslearningRatemomentumdeltareturnparamsNew,params
  构建成本和准确性功能,了解网络如何响应培训:defcost(labels,predictions):Returnsthesumofquadraticlossesovertheset(labels,predictions)。loss0forlabel,predinzip(labels,predictions):loss(predlabel)2returnloss2defaccuracy(labels,predictions):Returnsthepercentageofcorrectpredictionsintheset(labels,predictions)。acc0forlabel,predinzip(labels,predictions):iflabelpred:acc1returnacclabels。shape〔0〕
  最后创建训练网络的函数,并调用它:deftrainNetwork(data,labels,backend):Trainaquantumneuralnetworkoninputsdataandlabels,usingbackendbackend。Returnstheparameterslearned。np。random。seed(1)numSampleslabels。shape〔0〕numTrainint(numSamples0。75)orderingnp。random。permutation(range(numSamples))trainingDatadata〔ordering〔:numTrain〕〕validationDatadata〔ordering〔numTrain:〕〕trainingLabelslabels〔ordering〔:numTrain〕〕validationLabelslabels〔ordering〔numTrain:〕〕paramsnp。random。sample((5,2,1))bias0。01prevParamsnp。copy(params)prevBiasbiasbatchSize5momentum0。9learningRate0。02foriterationinrange(15):samplePositerationbatchSizebatchTrainingDatatrainingData〔samplePos:samplePos5〕batchLabelstrainingLabels〔samplePos:samplePos5〕batchGradsnp。zeroslike(params)batchBiasGrad0foriinrange(batchSize):grads,biasGradcomputeGradient(params,batchTrainingData〔i〕,batchLabels〔i〕,bias,backend)batchGradsgradsbatchSizebatchBiasGradbiasGradbatchSizeparams,prevParamsupdateParams(params,prevParams,batchGrads,learningRate,momentum)tempbiasbiaslearningRatebatchBiasGradmomentum(biasprevBias)prevBiastemptrainingPredsnp。array(〔forwardPass(params,bias,angles,backend)foranglesintrainingData〕)print(Iteration{}Loss:{}。format(iteration1,cost(trainingLabels,trainingPreds)))validationProbsnp。array(〔forwardPass(params,bias,angles,backend)foranglesinvalidationData〕)validationClassesconvertToClass(validationProbs)validationAccaccuracy(validationLabels,validationClasses)print(Validationaccuracy:,validationAcc)returnparamsbackendAer。getbackend(qasmsimulator)learnedParamstrainNetwork(features,Y,backend)
  参考资料:
  1。https:zhuanlan。zhihu。comp215839390
  2。https:www。ibm。comcnzhcloudlearnneuralnetworkstocbS0t361U
  3。https:www。ibm。comcnzhcloudlearnneuralnetworks
  4。https:max。book118。comhtml201908037024013124002044。shtm
  5。https:towardsdatascience。comquantummachinelearninglearningonneuralnetworksfdc03681aed3
  6。https:cloud。tencent。comdeveloperarticle1781109

活动星投票烧烤名店网络评选怎么做网络投票怎么做微信投票活动如果通过一个小程序免费制作一个微信投票活动呢?文章详细讲解如何利用一款免费好用的微信小程序活动星投票小程序来制作投票活动,无需注册即可免费制作,非常的方便快捷,可以实现视……再见!2022这一年,即将过去。这一年,终将成为历史上不可磨灭的年份!前大半年,各路牛鬼蛇神借机大行其道,年终岁尾,闸门突起,人民饱受病毒之害,但病毒之害较于牛鬼蛇神之害,两害相权取其……苹果多款新品今日开售,高管回应HomePod配置缩水!果粉之家,专业苹果手机技术研究十年!您身边的苹果专家早在半个月前,苹果突然在官网以直接上架的形式发布了搭载M2Pro和M2Max芯片的新款MacBookPro机型、搭载M……高颜值荣耀离场了,天玑8000IMX800高频调光,1225冬日生活打卡季时间来到十二月份之后,手机市场开始热闹了,最近多个厂商均有发布会,比如小米刚刚推出13系列,相信会是高端领域的强者,在这个辞旧迎新之际,不少老产品也是要离场……衬衣半身裙,夏天这样穿,复古优雅还有气质,美到了骨子里每一件服装单品,都有着它们独一无二的优势和特点,都说服装和人应该是互相衬托得,服装在拥有吸引力的同时,我们也应该懂得如何去发掘它的美。就好比在生活中最常见的衬衣,我们就要……班级春游活动方案春天,希望的季节;春天,是绿色的季节;春天,让人们忍不住想走出去感受一下自然的气息、自然的美丽。我们的孩子也不例外,他们迫不及待的想走进春天,走进大自然,探索春天的秘密。同时,……家庭经济困难介绍信范文家庭经济困难介绍信范文兹有我乡(镇)(居委会等)(父母亲姓名)之子(女)(学生姓名),于年月考入贵校学习。由于原因(每个家庭的原因不同,这里就要具体说明你的原因),导致家……关于安全教育活动总结锦集七篇不知不觉中一个丰富多彩的活动结束了,相信积累收获的背后都充满了艰辛与感动,是不是该好好总结总结呢?但是拿起笔的时候却发现不知道写什么,下面是关于安全教育活动总结7篇,仅供参考,……2021焦作市城乡居民基本养老保险制度实施细则焦作市城乡居民基本养老保险制度实施细则有什么内容呢?以下是品学网小编给大家整理的焦作市城乡居民基本养老保险制度实施细则,欢迎参考阅读,如有变动,以官网为准焦作市城乡居民基本养老……小学节能宣传周主题活动总结范文小学节能宣传周主题活动总结【1】20XX年,我校认真贯彻落实《中华人民共和国节约能源法》和《公共机构节能条例》,以节电、节水、节材等为重点,创新机制,加强管理,在全镇各学……最新送给大学同学的感恩节祝福语能懂得感恩的人,是快乐的,因为感恩让他知道什么是精彩;常怀感恩的人,是幸福的,因为感恩让他知道什么是人生。感恩节,感恩他人会让你获得精彩人生!假如人生是一次远足,你就是我……超市社会的实践报告范文在寒暑假的时候有很多的学生都会在超市开战社会实践,那么超市社会实践报告怎么写呢?下面小编就和大家分享超市社会实践报告,来欣赏一下吧。超市社会实践报告(一)现在,离走……
抗体基因文库介绍及优点抗体基因文库抗体基因文库(antibodyrecombinationlibrary)是将不同的重链和轻链基因随机组合,克隆到合适的表达载体中,在原核细胞表达不同的抗体,形……常州为什么能来源奔流财经社作者刘纯刚刚召开的一场2022世界工业与能源互联网博览会(常州工博会),将常州一个正在快速崛起的产业展露在世人面前:新能源常州的新能源,在不动声……精致的名言语录文案501。如果你曾经身陷黑暗,你一定不会忘记曙光出现的瞬间。2。世界在旋转,我们跌跌撞撞前进,这就够了。加缪3。我不是最优秀的选手,但我每次都会成为对手的滑铁卢王昱珩……中润新能源(徐州)有限公司招聘信息,工资非常高中润新能源(徐州)有限公司招聘中关于企业公司隶属于江苏中润集团,中润集团创立于2010年,专注于高效太阳能电池片技术研发、生产和销售。集团旗下设有五个生产基地:分别位于沛……刘诗雯,你笑起来真好看这就是年味儿刘诗雯发了个拜年的视频。她抱着她的狗狗,还暖心的给狗狗穿了大红衣服,还给她的狗狗扎了美丽的小辫子,好萌好可爱的样子。她自己也是笑的跟花儿一样。……正式官宣!中国男篮名宿出山,担任球队主帅,冲击总冠军在年初的时候,中国篮协打造的三人超级联赛完成了过渡赛季,而接下来真正的三人超级联赛即将开始,目前多支CBA球队都已经报名参加,包括上海男篮、青岛男篮、广州龙狮等球队,而北控男篮……月经期间洗头会致癌?没有科学依据月经是指伴随卵巢周期性变化而出现的子宫内膜周期性脱落以及出血。规律月经的出现是生殖功能成熟的重要标志。一般月经期无特殊症状,但由于内分泌的变化,乳房、盆腔等部位充血,因此有些妇……广东广州千万元消费红包发放!商圈消费氛围加速回暖视频加载中。。。(央视财经《天下财经》)进入12月,广东广州市各大商圈的复工复产工作有序开展,商场、餐饮等场所也逐步恢复营业。为了提振市场信心,广州从8日起向市民发放累计……九言在时间的大钟上,只有两个字现在在人生的道路上,从来没有全身而退,坐享其成,不劳而获一说。你不努力,就得出局。人生,有时候需要沉淀,也需要历练。要有足够的时间去反思,也要有足够的阅历去成长,这样才能让自……勇士下赛季能留住哪些替补球员?小佩顿波特安德森会留下吗?金州勇士队今年从他们的替补球员中得到了很大的帮助。他们能留下多少球员?金州勇士队目前29胜7负,完全超出了本赛季的预期。虽然斯蒂芬库里再次打出了一个MVP赛季,德拉蒙德格……拆解苹果M2Pro笔记本,内存变成4条4GB,散热片还缩小了Pine发自凹非寺量子位公众号QbitAI苹果M2Pro笔记本才刚发布没多久,就被成功拆解了!14寸M2Pro笔记本对比14寸M1Pro笔记本:内存模块……5款骁龙870手机,清仓捡漏最后一波了!魅族18X骁龙870、重189g、6。67英寸120HzOLED居中挖孔、76。35x165。1x7。99、64MP8MP2MP13MP前摄、Flyme9。2、30W充电……
友情链接:易事利快生活快传网聚热点七猫云快好知快百科中准网快好找文好找中准网快软网