纠纷奇闻社交美文家庭
投稿投诉
家庭城市
爱好生活
创业男女
能力餐饮
美文职业
心理周易
母婴奇趣
两性技能
社交传统
新闻范文
工作个人
思考社会
作文职场
家居中考
兴趣安全
解密魅力
奇闻笑话
写作笔记
阅读企业
饮食时事
纠纷案例
初中历史
说说童话
乐趣治疗

基于深度学习的FAQ问答系统

12月24日 飞仙轩投稿
  问答系统是信息检索的一种高级形式,能够更加准确地理解用户用自然语言提出的问题,并通过检索语料库、知识图谱或问答知识库返回简洁、准确的匹配答案。相较于搜索引擎,问答系统能更好地理解用户提问的真实意图,进一步能更有效地满足用户的信息需求。问答系统是目前人工智能和自然语言处理领域中一个倍受关注并具有广泛发展前景的研究方向。一、引言
  问答系统处理的对象主要包括用户的问题以及答案。根据问题所属的知识领域,问答系统可分为面向限定域的问答系统、面向开放域的问答系统、以及面向常用问题集(FrequentlyAskedQuestions,FAQ)的问答系统。依据答案来源,问答系统可分为基于结构化数据的问答系统如KBQA、基于文本的问答系统如机器阅读理解、以及基于问答对的问答系统如FAQ问答。此外,按照答案的反馈机制划分,问答系统还可以分为基于检索式的问答系统和基于生成式的问答系统。
  本文主要阐述FAQBot检索型问答系统的相关研究和处理框架,以及深度学习在其中的应用。FAQ检索型问答是根据用户的新Query去FAQ知识库找到最合适的答案并反馈给用户。如图所示:
  其中,Qi是知识库里的标准问,Ai是标准问对应的答案。
  具体处理流程为:候选集离线建好索引。采用Lucene引擎,为数万个相似问集合建立字级别倒排索引。Lucene引擎的性能能够将召回时间控制在毫秒级别,大大减轻后续模块的计算压力;线上收到用户query后,初步召回一批候选集作为粗排结果传入下一模块进行进一步精确排序;利用matching模型计算用户query和FAQ知识库中问题或答案的匹配程度;利用ranking模型对候选集做rerank并返回topk个候选答案。
  可以看出,FAQ问答系统的核心任务可以抽象为文本匹配任务。传统文本匹配方法如信息检索中的BM25,向量空间模型VSM等方法,主要解决字面相似度问题。然而由于中文含义的丰富性,通常很难直接根据关键字匹配或者基于机器学习的浅层模型来确定两个句子之间的语义相似度。近几年,利用神经网络,尤其是深度学习模型学习文本中深层的语义特征,对文本做语义表示后进行语义匹配的方法开始被提出并应用于检索式问答系统。基于深度学习的模型一方面能够节省人工提取特征的大量人力物力。此外,相比于传统方法,深度文本匹配模型能够从大量的样本中自动提取出词语之间的关系,并能结合短语匹配中的结构信息和文本匹配的层次化特性,发掘传统模型很难发掘的隐含在大量数据中含义不明显的特征,更精细地描述文本匹配问题。二、深度学习文本匹配
  FAQ问答系统一般有两种解决思路,一种是相似问题匹配,即对比用户问题与现有FAQ知识库中问题的相似度,返回用户问题对应的最准确的答案,这种思路类似于另一种是问题答案对匹配,即对比用户问题与FAQ知识库中答案的匹配度,返回用户问题对应的最准确的答案,这种思路为答案选择,即QA匹配。这两个类型相通的地方在于都可以看作文本语义匹配,很多模型能同时在两个任务上都得到很好的效果,区别在于QA匹配存在问题与答案不同质的问题。
  下面总结一些基于深度学习的文本匹配工作,希望能够抛砖引玉,如有遗漏或错误,欢迎补充或指出。
  2。1模型框架
  概括来讲,深度语义匹配模型可以分为两大类,分别是representationbasedmethod和interactionbasedmethod。
  1)RepresentionbasedMethod
  框架图如下:
  这类算法首先将待匹配的两个对象通过深度学习模型进行表示,之后计算这两个表示之间的相似度便可输出两个对象的匹配度。这种方式下,更加侧重对表示层的构建,使其尽可能充分地将待匹配的两个对象都转换成等长的语义表示向量。然后在两个对象对应的两个语义表示向量基础上,进行匹配度的计算。针对匹配度函数f(x,y)的计算,通常有两种方法,如下图所示:一种是通过相似度度量函数进行计算,实际使用过程中最常用的就是cosine函数,这种方式简单高效,并且得分区间可控意义明确;另一种方法是将两个向量再接一个多层感知器网络(MLP),通过数据去训练拟合出一个匹配度得分,更加灵活拟合能力更强,但对训练的要求也更高。
  RepresentionbasedExtended
  上述的representationbasedmethod存在的问题是直接基于句子的表示太粗糙,无法准确进行文本匹配任务。受信息检索领域的启发,结合主题级别和单词级别的匹配信息通常可以获得更好的表现。于是进一步对句子表示进行扩展,加入细粒度匹配信息。框架图如下:
  2)InteractionbasedMethod
  框架图如下:
  基于交互的方法是通过Interaction来对文本相似性建模。该方式更强调待匹配的两个句子得到更充分的交互,以及交互后的匹配。在表示层不会将句子转换成一个整体表示向量,一般情况下会保留和词位置相对应的一组表示向量。首先基于表示层采用DNN或直接由wordembedding得到的句子表示,和词位置对应的每个向量体现了以本词语为核心的一定的全局信息;然后对两个句子按词对应交互,由此构建两段文本之间的matchingpattern,这里面包括了更细致更局部的文本交互信息;基于该匹配矩阵,可以进一步使用DNN等来提取更高层次的匹配特征,最后计算得到最终匹配得分。Interactionbased方法匹配建模更加细致、充分,一般来说效果更好,但计算成本增加,更加适合一些效果精度要求高但对计算性能要求不高的场景。
  下面总结了不同类型的深度学习文本匹配模型。可以看出,深度文本匹配现有工作很多,本文将对近几年的部分工作进行详细介绍,其他可参考对应文献进行深入阅读。representationbased:DSSM〔1〕;CDSSM〔2〕;ARCI〔3〕;CNTN〔4〕;LSTMRNN〔5〕representationbasedextension:MultiGranCNN〔6〕;MVLSTM〔7〕interactionbased:ARCII〔8〕;MatchPyramid〔9〕;MatchSRNN〔10〕;DeepMatch〔11〕;ABCNN〔12〕;QALSTMCNNattention〔13,14〕;AP〔15〕;AICNN〔16〕;MVFNN〔17〕;BiMPM〔18〕;DQI〔22〕;DIIN〔23〕
  2。2模型介绍
  2。2。1ABCNN〔12〕
  首先介绍BCNN,它是ABCNN模型的基础,即未添加Attention的模型。模型结构如图所示:
  输入层:将输入句子进行padding后转化成词向量即可;
  卷积层:对句子表示进行卷积,使用wideconv的方式;
  pooling层:论文中使用了两种pooling方式,一种是最后一个pooling层为allap,还有一种是中间pooling层为wap。区别就是池化时的窗口大小不同;
  输出层:接logistic回归层做2分类。
  ABCNN是在BCNN的基础上加了两种attention机制。模型结果如下图:
  (1)在输入层加入attention
  其原理为将输入拓展成双通道。新添加的通道是attentionfeaturemap,即上图中的蓝色部分。首先计算attentionmatrixA,其每个元素Aij代表句子1中第i个单词对句子二中第j个单词的matchscore,这里使用了Euclidean距离计算。然后再分别计算两个句子的attentionfeaturemap。使用两个矩阵W0,W1分别和A还有A的转置相乘,得到与原本feature尺寸相同的featuremap。W0和W1都是模型参数,可以使用相同的W,即共享两个矩阵。这样我们就将原始的输入拓展成了两个通道。
  (2)在pooling层加入attention
  AttentionmatrixA的计算方法与上述相同,得到A后需要为两个句子分别计算attention权重向量,如上图中的两个虚线部分colwisesum和rowwisesum。这两个向量中的每个元素分别代表了相应单词在做AveragePooling时的权重。相当于pooling不再是简单的AveragePooling,而是根据计算出的Attention权重向量得到的pooling。
  2。2。2LSTMCNN,attention〔13,14〕
  给定一个(q,a)pair,q是问题,a是候选答案。首先得到它们的词向量,再使用biLSTM进行encoder,生成问题和答案的分布式表示,然后利用余弦相似度来衡量它们的距离。训练目标是hingeloss。
  在biLSTM表示输出的基础上进一步使用CNN,CNN可以获取biLSTM输出的向量之间的局部信息。从而给出问题和答案的更多复合表示。
  当biLSTM模型在问题和答案上长距离传播依赖关系时,隐藏向量的固定宽度成为瓶颈。通过动态调整问题答案的更多信息部分,可以使用注意力机制来缓解这种弱点。在maxmeanpooling前,每个biLSTM输出向量将乘以softmax权重,该权重由biLSTM的问题嵌入得到。
  2。2。3AttentivePoolingNetworks〔15〕
  QALSTMwithattention中attention的设计是通过问题对答案的影响进行特征加权,但是它忽略了答案对问题的影响。Attentivepoolingnetworks同时将attention应用到问题和答案,提高算法的准确率。通过同时学习两种输入的表示以及它们之间的相似性测量,其创新点在于将Q和A这两个输入通过参数矩阵U投射到一个共同的表示空间,用Q和A的representation构造了一个矩阵G,分别对G的row和column做maxpooling,这样就能分别能得到Q和A的attentionvector。APBILSTM模型框架图如下:
  APBILSTM模型的设计首先将问题和答案经过BILSTM抽取特征,然后通过两者的特征计算softalignment,得到的G矩阵表示了问题和答案相互作用的结果。对该矩阵的列取最大,即为答案对问题的重要性得分,同理对该矩阵行取最大即为问题对答案的重要性得分。这两个向量再作为attention向量分别和问题和答案表示相乘后得到问题和答案新的表示,最后再做匹配。
  2。2。4AICNN〔16〕
  之前关于答案选择的研究通常忽略了数据中普遍存在的冗余和噪声问题。在本文中,设计一种新颖的注意力交互式神经网络(AINN),以专注于那些有助于回答选择的文本片段。问题答案的表示首先通过卷积神经网络(CNN)或其他神经网络架构来学习。然后AINN学习两个文本的每个配对片段的相互作用。之后使用逐行和逐列池化来收集交互信息。之后采用注意机制来衡量每个细分的重要性,并结合相互作用来获得问答的固定长度表示。模型框架图如下:
  2。2。5MVFNN〔17〕
  上述基于神经网络的方法通过计算注意力来考虑信息的几个不同方面。这些不同类型的注意力总是简单地总结并且可以被视为单一视图,不能从多个方面来审视问题和候选答案,导致严重的信息丢失。要克服这个问题,此模型提出了一种多视图融合神经网络,其中每个关注组件生成QA对的不同视图,并且融合QA本身的特征表示以形成更整体的表示。模型框架图如下:
  对于一个问题,可能会有一堆视图来模拟其相应的答案。在此模型中,根据直觉构建了四个视图。这四个视图被命名为查询类型视图,查询主动词视图,查询语义视图和coattention视图。最后使用fusionRNN模型来对这些视图进行融合。通过不同视图的融合,能对两个对象进行更准确的建模。
  2。2。6BiMPM〔18〕
  针对基于交互这一类方法,一般是先对两个句子的单元相互匹配,之后再聚集为一个向量后做匹配。这种方式可以捕捉到两个句子之间的交互特征,但是之前的方式只是基于词级别的匹配但是忽略了其他层级的信息。此外,匹配只是基于一个方向忽略了相反的方向。一种双向的多角度匹配模型bilateralmultiperspectivematching(BiMPM)解决了这方面的不足。模型框架如下图:
  模型自下而上一共包含五层,分别为单词表示层、上下文表示层、匹配层、聚合层和预测层,其中匹配层为模型的核心,共提出了四种匹配策略,这里的匹配可以看成是attention机制。
  单词表示层:使用GloVe模型训练向量,对字符embedding进行随机初始化,单词中的字符组成单词的向量表示作为LSTM网络的输入。
  上下文表示层:使用BiLSTM对p和q进行表示。
  匹配层:模型的核心层,包含四种匹配策略,分别是:FullMatching、MaxpoolingMatching、AttentiveMatching和MaxAttentiveMatching。四种匹配策略如下图:
  聚合层:利用BiLSTM对匹配层的输出向量进行处理,取得p、q前向和后向最后一个timestep的输出进行连接后输入到预测层。
  预测层:softmax层,softmax函数分类。
  上述是对近几年部分深度文本匹配模型的总结,接下来则介绍基于深度模型的FAQBot。
  三、基于深度学习的FAQBot实现
  3。1模型化流程
  3。2数据获取及构造
  3。2。1数据获取
  对于有大量问答记录的场景例如智能客服,这些记录里面有很多高频的知识点(知识点包括问题和答案)。这些高频的知识点对应的问法通常并不唯一。即知识库的结构为一个问题集合对应同一个答案。针对FAQ数据有以下三种数据类型:标准问q:FAQ中问题的标准用户query答案A:FAQ中标准问对应的的标准回答相似问q1,q2。。。:跟标准问语义相似可用同一答案回答的query
  其中,标准问q、对应答案A以及该标准问q对应的所有相似问q1,q2,。。。,一起组成一个知识点。一个知识点的样例见下图:
  3。2。2数据构造
  数据构造包含了两个方面:
  (1)训练集测试集构造
  测试集:将相似问中的第一条相似问q1作为query,从FAQ知识库的所有知识点中通过Lucene召回30个知识点作为候选集
  训练集:包含两部分,一部分是正例的构造,另一部分是负例的构造,这两部分数据的构造方式将直接影响到最终的效果。在正例的构造中,因为每个知识点的第一个相似问是作为测试集中出现的,所以在构造训练集的时候排除掉所有知识点中的第一条相似问q1。这样的话,有多于2个相似问的知识点还有多于的其他相似问可以用来构造训练集。将这些识点中的标准问和从相似问的第二条开始(即〔q2,q3,。。。,qn〕)可以按照不同方式构造出正例和负例。
  训练集正例的构造:去除所有知识点中的第一条相似问q1,其他相似问及标准问两两组合成正例pair对;对于相似问多的知识点进行剪切。
  训练集负例的构造的方式包括:按Jaccard距离召回;按Lucene召回;从其他知识点中随机选择;按照正例中各问题出现的比例从其他知识点中采样选择;每个句子和句子中的名词动词构成pair对;针对知识点分布不均衡的问题,对相似问很多的知识点进行相似问剪切。
  (2)数据增强策略
  由于深度学习需要较多的数据,为了增强数据,我们采用了以下策略:交换两个句子之间的顺序;对句子进行分词,重新组合生成新的句子;打乱句子的顺序,随机抽取句子。
  3。3模型建立
  3。3。1模型框架
  基本框架一般都是将待匹配的两个句子分别使用两个encoder来获取对应context信息,然后将二者的context信息进行匹配,得到匹配后的特征信息。也可以在匹配之后的特征后面加上一些其他的传统文本特征,将所有这些特征进行concat。最后接上softmax层,做最终的分类。模型的框架如下图所示:
  3。3。2模型建立及迭代优化
  Embedding层:使用word2vec和fasttext训练词向量和字符向量。
  Encoder层:卷积具有局部特征提取的功能,所以可用CNN来提取句子中类似ngram的关键信息,考虑文本的上下文信息。于是我们采用textCNN〔19〕来对句子进行编码表示,encoder过程见下图:
  Matching层:在得到两个句子的表示后,要针对两个句子的表示进行matching操作。可以根据需要构造出很多种类型的matching方式如下图〔20〕,我们采用相对比较简单的elementwise相加和相乘的方式来进行matching。
  join层:在matching层之后得到的两个句子的共同表示之后,进一步引入额外的传统特征进行join操作,类似于下图〔21〕。
  引入interaction:上述步骤对两个句子encoder时没有考虑两个句子之间的关联。于是进一步引入更细致更局部的句子交互信息,从而能捕捉到两个句子之间的交互特征,根据交互得到的矩阵获取两个句子新的表示。如图:
  引入attention机制:采用注意机制使用权重向量来衡量句子不同部分重要性的不同。attention的计算主要思想沿用了AICNN和ABCNN中的几种attention,分别是feature的attention,interaction后新的表示和句子原表示之间的attention。四、总结与展望
  4。1数据层面建立更加合理的知识库:每个知识点只包含一个意图,且知识点之间没有交叉,歧义,冗余等容易造成混淆的因素标注:为每个FAQ积累一定数量的有代表性的相似问后期的持续维护:包括新FAQ发现,原FAQ的合并、拆分、纠正等
  4。2模型层面进一步捕捉syntacticlevel和semanticlevel的知识如语义角色标注(SRL,semanticrolelabelling)和词性标注(POS,partofspeechtagging)等,引入到文本的表示之中,提高文本语义匹配的效果目前大部分检索行问答的工作做的是问题和问题匹配,或是问题和答案匹配。后续可以同时引入问题和答案的信息进行建模,如图:
  参考文献
  〔1〕HuangPS,HeX,GaoJ,etal。Learningdeepstructuredsemanticmodelsforwebsearchusingclickthroughdata〔C〕ACMInternationalConferenceonConferenceonIKnowledgeManagement。ACM,2013:23332338。
  〔2〕ShenY,HeX,GaoJ,etal。ALatentSemanticModelwithConvolutionalPoolingStructureforInformationRetrieval〔C〕AcmInternationalConferenceonConferenceonIKnowledgeManagement。ACM,2014:101110。
  〔3〕HuB,LuZ,LiH,etal。ConvolutionalNeuralNetworkArchitecturesforMatchingNaturalLanguageSentences〔J〕。AdvancesinNeuralInformationProcessingSystems,2015,3:20422050。
  〔4〕QiuX,HuangX。Convolutionalneuraltensornetworkarchitectureforcommunitybasedquestionanswering〔C〕InternationalConferenceonArtificialIntelligence。AAAIPress,2015:13051311。
  〔5〕PalangiH,DengL,ShenY,etal。DeepSentenceEmbeddingUsingLongShortTermMemoryNetworks:AnalysisandApplicationtoInformationRetrieval〔J〕。IEEEACMTransactionsonAudioSLanguageProcessing,2016,24(4):694707。
  〔6〕YinW,SchtzeH。MultiGranCNN:AnArchitectureforGeneralMatchingofTextChunksonMultipleLevelsofGranularity〔C〕MeetingoftheAssociationforComputationalLinguisticsandthe,InternationalJointConferenceonNaturalLanguageProcessing。2015:6373。
  〔7〕WanS,LanY,GuoJ,etal。ADeepArchitectureforSemanticMatchingwithMultiplePositionalSentenceRepresentations〔J〕。2015:28352841。
  〔8〕HuB,LuZ,LiH,etal。ConvolutionalNeuralNetworkArchitecturesforMatchingNaturalLanguageSentences〔J〕。AdvancesinNeuralInformationProcessingSystems,2015,3:20422050。
  〔9〕PangL,LanY,GuoJ,etal。TextMatchingasImageRecognition〔J〕。2016。
  〔10〕WanS,LanY,XuJ,etal。MatchSRNN:ModelingtheRecursiveMatchingStructurewithSpatialRNN〔J〕。CGraphics,2016,28(5):731745。
  〔11〕LuZ,LiH。Adeeparchitectureformatchingshorttexts〔C〕InternationalConferenceonNeuralInformationProcessingSystems。CurranAssociatesInc。2013:13671375。
  〔12〕YinW,SchtzeH,XiangB,etal。ABCNN:AttentionBasedConvolutionalNeuralNetworkforModelingSentencePairs〔J〕。ComputerScience,2015。
  〔13〕TanM,SantosCD,XiangB,etal。LSTMbasedDeepLearningModelsforNonfactoidAnswerSelection〔J〕。ComputerScience,2015。
  〔14〕TanM,SantosCD,XiangB,etal。ImprovedRepresentationLearningforQuestionAnswerMatching〔C〕MeetingoftheAssociationforComputationalLinguistics。2016:464473。
  〔15〕SantosCD,TanM,XiangB,etal。AttentivePoolingNetworks〔J〕。2016。
  〔16〕XZhang,SLi,LSha,HWang。AttentiveInteractiveNeuralNetworksforAnswerSelectioninCommunityQuestionAnswering〔C〕InternationalConferenceonArtificialIntelligence。
  〔17〕LSha,XZhang,FQian,BChang,ZSui。AMultiViewFusionNeuralNetworkforAnswerSelection〔C〕InternationalConferenceonArtificialIntelligence。
  〔18〕WangZ,HamzaW,FlorianR。BilateralMultiPerspectiveMatchingforNaturalLanguageSentences〔C〕TwentySixthInternationalJointConferenceonArtificialIntelligence。2017:41444150。
  〔19〕KimY。ConvolutionalNeuralNetworksforSentenceClassification〔J〕。EprintArxiv,2014。
  〔20〕WangS,JiangJ。ACompareAggregateModelforMatchingTextSequences〔J〕。2016。
  〔21〕SeverynA,MoschittiA。LearningtoRankShortTextPairswithConvolutionalDeepNeuralNetworks〔C〕TheInternationalACMSIGIRConference。ACM,2015:373382。
  〔22〕XiaodongZhang,XuSun,HoufengWang。DuplicateQuestionIdentificationbyIntegratingFrameNetwithNeuralNetworks〔C〕IntheThirtySecondAAAIConferenceonArtificialIntelligence(AAAI18)
  〔23〕GongY,LuoH,ZhangJ。NaturalLanguageInferenceoverInteractionSpace〔J〕。2018。
投诉 评论 转载

充分认识科技伦理问题的紧迫性和复杂性长江日报评论员秦孟婷近日,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,旨在进一步完善科技伦理体系,提升科技伦理治理能力,有效防控科技伦理风险,不断推……拳皇15宣布将于2022年Q1发售登陆PS45XSXSPC平IT之家7月7日消息SNK官方推特宣布,《拳皇15》将在2022年第一季度发售,届时将登陆PS4、PS5、XboxSeriesXS、Windows10、Steam和Epic平台……全面战争官方微博上线,将推出卡牌游戏全面战争英雄传IT之家8月2日消息今日,全面战争官方微博全面战争TotalWar上线,认证信息显示为网易(上海)网络游戏有限公司。全面战争官微发文表示,战争策略游戏《全面战争》系列登录……生为竞技黑鲨游戏手机2Pro荣获牛耳人人盛典最佳创新智能手机黑鲨游戏手机是国内第一家游戏手机厂商,也是第一家采用液冷散热方式的手机厂商、第一款采用独立图像处理芯片的手机、黑鲨游戏手机2Pro上更是创新手游操作方式推出游戏手柄、自定义的屏……华为终于再次割爱,海思5G麒麟芯片能够彻底自由吗?只要思想不滑坡方法总比问题多华为将麒麟985处理器出售给了鼎桥通信,并基于麒麟9855G芯片打造了N8Pro智能手机,也支持5G网络。也就是说,只要与华为没有直接关……大佬观点丨张慧明年看好这几个赛道新能源汽车预计还将保持比较快的增长水平新基建领域中约束行业发展的瓶颈环节,如储能和电网要关注半导体设备的国产化今年是一个01的过程,明年是个1n的过程航空、酒店、消费可能存在反……微软Xbox近年内不会推新机型,将继续普及云游戏IT之家6月30日消息据IGN报道,XboxSeriesXS主机已经推出7个月了,在近期的一次访谈节目中,微软Xbox主管菲尔斯宾塞谈论了Xbox主机未来的硬件发展路线,并暗示……基于深度学习的FAQ问答系统问答系统是信息检索的一种高级形式,能够更加准确地理解用户用自然语言提出的问题,并通过检索语料库、知识图谱或问答知识库返回简洁、准确的匹配答案。相较于搜索引擎,问答系统能更好地理……为了提高整体质量和开发速度,任天堂收购路易吉鬼屋3开发商IT之家2月21日消息今年1月5日,任天堂官推宣布,将收购《路易吉鬼屋3》开发商NextLevelGames,如果各项事宜进展顺利,将于2021年3月1日实施股份收购。近……百亿补贴图书,拼多多的新算盘当拼多多的百亿补贴杀入图书,会有什么效果?3月31日,拼多多正式开启了多多读书月活动。根据拼多多官方的描述,这次拼多多联合了中信出版社、知识出版局、青岛出版社等30余家出……拆解华为5G新机!中国零件占比激增美国芯片用量不减反增仍高度FX168财经报社(香港)讯日本经济新闻(NikkeiJapan)在调查公司FomalhautTechnoSolutions的协助下,拆解华为2021年3月在中国推出的5G智慧……美国想在5G问题上怂恿韩国据韩联社首尔12月16日报道,正在韩国访问的美国国务院负责经济事务的副国务卿费尔南德斯16日称,美方希望构建可信赖的网络,正与韩方就构建第五代移动通信(5G)网络事宜进行探讨。……
知识黄登登还是黄澄澄狗狗一见到人就跑?背后的原因既辛酸又幸福第一次带宝宝出国旅行,我为何选择去日本?但是即使春天再美有些地方还是千万不要去!科普下冲量的单位是什么成语对对子粗茶淡饭(粗茶淡饭对什么对对子相对)科普下镅元素的知识点总结windows驱动程序包(电脑c盘设备驱动程序包是啥)第二十四章失忆如何挖掘孩子的天赋?做到这3点,让你少花冤枉钱女儿红的寓意(女儿红的美好寓意)让海南离岛免税购物更香
从博客开始,如何一步步发布产品学生口腔溃疡和手足口病的区别固体废弃物资源化优势河道治理的意义入关朱茵那么爱周星驰,为何嫁给了黄贯中?生日历险记作文350字今日双汇猪下水价格,双汇百科长大后没出息的孩子,父母大多有这些共同特征,你占了几个疏浚新时代乡村振兴的金融之源集体转向!杭州青岛济南等城市,开始脱虚向实妹的被鄙视了好郁闷啊

友情链接:中准网聚热点快百科快传网快生活快软网快好知文好找美丽时装彩妆资讯历史明星乐活安卓数码常识驾车健康苹果问答网络发型电视车载室内电影游戏科学音乐整形