游戏电视苹果数码历史美丽
投稿投诉
美丽时装
彩妆资讯
历史明星
乐活安卓
数码常识
驾车健康
苹果问答
网络发型
电视车载
室内电影
游戏科学
音乐整形

ChatGPT的前世今生

  本文将细数聊天机器人chatbot的发展历程中的关键事件,帮助读者建立智能聊天机器人发展时间线的初步概念,文章比较长,读者可以收藏慢读。
  萌芽:20世纪60年代70年代
  在这个时期,聊天机器人的早期原型被开发出来。其中最著名的是Eliza,它模拟了心理医生的对话过程。在这个时期,主要使用的技术框架是基于规则的语法解析。
  Eliza对话
  ELIZA是一个早期的自然语言处理计算机程序,由JosephWeizenbaum1964年至1966年期间在麻省理工学院创建。最初使用MADSLIP在IBM7094上开发,旨在探索人与机器之间的交流,它使用一种模式匹配和替换的方法来模拟对话,让用户产生了一种程序理解他们所说的话的错觉,但实际上它没有真正理解任何一方所说的话。
  ELIZA有五个基本的技术问题需要解决:关键词的识别、最小语境的发现、选择适当的转换、根据转换或没有关键词产生适当的响应以及提供ELIZA脚本的结束容量。为了解决这些问题,Weizenbaum使ELIZA没有内置的上下文框架或话语世界,但这需要ELIZA有一套脚本来指导它如何响应用户的输入。
  ELIZA处理用户输入的过程是首先检查文本输入的关键词,将这些关键词按重要程度排序并放入一个关键词堆栈中。然后根据堆栈中排名最高的关键词,对输入的语句进行操作和转换,以产生响应。接下来,根据适当的转换规则,将输入的句子进行分解和重组,形成响应,并将响应以文本形式发送给用户。ELIZA的操作方式取决于操作脚本,脚本是可以编辑或创建新的,以满足需要的上下文环境。ELIZA最著名的脚本是DOCTOR,它模拟罗杰斯式的心理治疗师。ELIZA也有一些专门的功能,例如当没有关键词时,可以使用MEMORY结构记录以前的输入,并在遇到没有关键词的情况下使用这些输入来创建响应。
  ELIZA的成功启示了许多研究者,让他们开始探索如何使用自然语言处理和人工智能技术来模拟人类的对话和思考过程。这项研究成果也催生了一系列与ELIZA相似的对话机器人,如PARRY和Jabberwacky等。这些对话机器人虽然也能够实现简单的自然语言交互,但是由于缺乏深度的理解和推理能力,很难与人类的对话水平相比。
  然而,ELIZA的设计理念和技术手段在后来的自然语言处理研究中仍然发挥了重要作用。例如,基于关键词的文本生成和问答系统、对话状态跟踪和对话策略等技术都受到了ELIZA的启示。
  此外,ELIZA也成为了许多文化作品的灵感源泉,如电影《Her》链接中的人工智能角色Samantha就受到了ELIZA的影响。
  探索:1990年代2000年代
  在这个时期,聊天机器人的关键技术框架是基于有限状态机(FSM)和模板匹配的技术。这个时期开发的聊天机器人有Jabberwacky和Alice等。
  Jabberwacky1986
  Jabberwacky原型
  Jabberwacky是由英国人RolloCarpenter在1986年开始开发的。它最初是一个具有人工智能的聊天程序,使用了一些语言处理和机器学习技术,能够模拟人类的对话。
  Jabberwacky的特点是它能够通过对话来学习和适应用户的喜好和行为,从而使其对话能力不断提高。例如,当用户询问Jabberwacky的兴趣爱好时,Jabberwacky会记住用户的回答并使用这些信息来生成更有针对性的回答。
  Jabberwacky的技术原理是基于人工智能技术中的自然语言处理和机器学习算法。其系统基于已有的对话库和语言模型,通过对用户输入的文本进行分析和匹配,生成相应的回复。
  Jabberwacky的系统包括两个主要组成部分:前端和后端。前端包括用户界面和对话交互,后端则是包括机器学习算法和语言模型的核心技术。
  在使用过程中,用户输入的文本会经过前端传递到后端处理。后端首先会将输入文本进行分词、词性标注等自然语言处理技术,以得到更具语义的表示。然后,系统会将这个表示与已有的对话库中的文本进行比较匹配,找出与之最相似的对话内容,并根据对话库中的规则生成回复。
  对于对话库中没有的问题或者无法准确匹配的情况,Jabberwacky还可以通过机器学习算法自动学习用户输入和回复之间的关系,并不断地更新和完善自己的语言模型,以提高对话的质量和流畅度。
  Alice1995
  Alice原型
  Alice(也称为AIMLBot)是一个基于AIML(ArtificialIntelligenceMarkupLanguage)语言的聊天机器人。AIML是一种基于XML的标记语言,用于定义人工智能聊天机器人的对话逻辑和模式匹配规则,创建对话机器人。Alice最初由RichardWallace于1995年开始开发,它被认为是最早的聊天机器人之一。
  Alice的目标是模仿人类的自然语言,与用户进行有意义的对话。它可以回答关于天气、新闻、体育等各种话题的问题,还可以与用户进行有趣的聊天。Alice通过使用AIML模板来生成其回复。AIML模板是一种规则系统,它将输入文本与预先定义的模式进行匹配,并生成适当的回答。Alice还使用了一些自然语言处理(NLP)技术,例如词性标注和词义消歧,以提高其对话的准确性和流畅性。
  Alice的源代码和AIML模板是开放的,因此开发人员可以自由修改和扩展它们。Alice已经被集成到多个应用程序中,包括在线聊天室、语音助手和智能家居系统。
  Alice的技术原理主要是基于自然语言处理和机器学习技术。它的对话逻辑主要包括模式匹配和响应。模式匹配通过比较用户输入和预定义的模式来确定用户意图。响应部分则根据匹配的模式生成回答,以及在需要的时候使用机器学习算法对用户的输入进行分类和处理,以提高对话的准确性和流畅度。
  Alice还使用了基于知识库的方法来增强其回答能力。它通过收集和存储各种领域的知识和信息,从而能够回答更复杂的问题。
  预定义的模式(predefinedpatterns)是一种文本处理技术,用于从用户输入中识别出特定的语言模式并提取相关信息。在聊天机器人中,预定义的模式通常用于匹配用户提问的主题、意图或关键词,并在不需要进行复杂的自然语言处理的情况下回答问题。
  预定义的模式可以采用正则表达式、关键字匹配、语言模型等方式实现。一些聊天机器人平台提供了图形化的界面,让用户可以方便地创建自己的预定义模式。
  例如,用户提问你会做什么?时,可以使用预定义模式匹配关键字做什么,并返回一个相关的回答,如我可以回答你的问题,或者进行闲聊。预定义模式的优点是简单易用,但其局限性在于无法识别复杂的语言结构和意图。
  积累:2010年代
  在这个时期,深度学习技术的发展引领了智能聊天机器人的新发展。其中最著名的是微软的小冰和谷歌的神经对话模型(NeuralConversationalModel,简称Seq2Seq)。这些机器人使用循环神经网络(RecurrentNeuralNetwork,简称RNN)和长短时记忆网络(LongShortTermMemory,简称LSTM)等技术来学习对话语境,并生成自然语言回复。
  Siri2011
  Siri
  Siri是一款由苹果公司开发的智能语音助手,于2011年首次发布。它通过语音识别、自然语言处理、知识图谱等技术与用户进行交互,并为用户提供各种服务和功能。
  Siri的技术架构和原理是基于自然语言理解(NLU)、自然语言生成(NLG)、对话管理和知识库的结合。
  在NLU方面,Siri使用了语音识别技术将用户语音转换为文本,并使用自然语言处理(NLP)技术对用户的文本进行分析和理解。这包括识别用户的意图、识别实体(如日期、时间、地点等)以及处理语义解析和歧义消解等任务。
  在NLG方面,Siri使用了模板生成和数据驱动生成等技术,根据用户意图和知识库中的信息生成自然语言响应。
  在对话管理方面,Siri使用了一系列算法和模型来管理对话流程,包括对话状态跟踪、上下文识别、对话策略和对话生成等任务。这使得Siri能够根据用户的前几轮对话来推断用户的意图和需要,并生成相应的响应。
  在知识库方面,Siri使用了多种信息来源,包括用户设备上的数据、第三方数据和网络搜索等,以提供更丰富的答案和服务。同时,Siri还可以学习和适应用户的偏好和行为,以提供更加个性化的服务。
  MessengerBot2016
  MessengerBot是FacebookMessenger平台上的聊天机器人,允许开发者创建和部署自己的聊天机器人,与Messenger上的用户进行互动。MessengerBot基于Facebook的机器人引擎,使用自然语言处理和人工智能技术,通过文本、语音或图像与用户进行交互。
  MessengerBot可以实现许多不同的功能,例如提供用户支持、订阅最新资讯、购买商品、订阅服务、预定餐厅等。开发者可以使用Facebook提供的API和工具来构建自己的机器人,并将其集成到Messenger平台上。
  MessengerBot的优点包括:能够实现自然而易懂的对话,提供快速和个性化的服务,实现247无间断服务,节省人力成本等。随着Messenger平台的不断发展和更新,MessengerBot也不断发展和改进,成为越来越受欢迎的聊天机器人平台之一。
  MessengerBot的技术架构主要分为以下几个方面:Messenger平台:Messenger是Facebook的一个即时通讯应用程序,支持语音通话、视频通话、文本和多媒体消息发送等功能,也是MessengerBot运行的基础平台。BotEngine:BotEngine是MessengerBot的核心组件之一,它是一个机器学习框架,使用自然语言处理(NLP)技术,帮助机器人理解用户的消息,识别出用户的意图,并根据用户的需求提供相应的回复。Wit。ai:Wit。ai是Facebook的一个自然语言处理平台,它提供了一个API,允许开发人员构建和训练自己的NLP模型。MessengerBot可以使用Wit。aiAPI来构建自己的NLP模型,并通过BotEngine来应用这些模型。Webhook:Webhook是MessengerBot的另一个核心组件,它是一种HTTP回调机制,用于将MessengerBot与其他应用程序进行集成。当用户在Messenger平台上与MessengerBot进行交互时,Messenger会将用户的消息传递给MessengerBot的Webhook端点,Bot会接收到这些消息并进行处理,最后将响应返回给用户。应用程序编程接口(API):MessengerBot还提供了一组API,用于与Messenger平台进行交互,例如发送消息、设置菜单、获取用户资料等。
  其中核心模块BotEngine技术原理:训练数据:BotEngine使用大量的语料库数据来训练它的自然语言处理模型,这些数据包括用户的聊天记录、问题和回答等信息。通过对这些数据的学习,BotEngine可以识别用户的意图、提取关键信息和响应用户的请求。自然语言理解:BotEngine的自然语言理解(NLU)模块可以将用户输入的自然语言转化为计算机可以理解的语言,同时识别用户的意图和提取关键信息。例如,用户可以输入请帮我预订一张从北京到上海的机票,BotEngine可以理解用户的意图是订购机票,并从中提取出北京和上海这两个关键信息。决策树:BotEngine使用决策树来根据用户输入的意图和提取的信息来做出响应。决策树是一种基于规则的算法,通过在不同的节点上执行相应的规则来进行决策。例如,当BotEngine识别出用户的意图是预订机票并提取出了出发地和目的地信息后,它可以根据预设的规则生成相应的回复,例如好的,您需要预订从北京到上海的机票,请提供出发时间和乘客人数。机器学习:BotEngine还使用了机器学习技术来提高自然语言处理的准确性和效率。它可以通过学习用户的历史聊天记录和反馈信息来不断优化自己的模型和算法,以便更好地理解和响应用户的请求。
  GoogleDuplex2018
  GoogleDuplex是一个自然语言对话系统,其技术原理和架构包括以下几个方面:
  语音识别:GoogleDuplex首先会通过语音识别技术将用户的语音输入转换为文本。这一过程需要使用复杂的声学模型、语言模型和机器学习算法,以尽可能准确地识别用户的语音输入。
  自然语言理解:在将用户语音输入转换为文本之后,GoogleDuplex使用自然语言处理技术来理解用户的意图。这一过程包括对文本进行分词、词性标注、命名实体识别、依存句法分析等操作,以确定用户的意图和需要执行的任务。
  对话管理:GoogleDuplex使用对话管理技术来维护对话的状态,管理对话流程,并决定何时需要向用户请求更多信息。这一过程需要使用机器学习算法和决策树等技术来确定对话的下一步操作。
  自然语言生成:当GoogleDuplex需要向用户提供信息时,它会使用自然语言生成技术将计算机生成的文本转换为自然语言。这一过程需要使用文本生成模型和语言模型等技术。
  语音合成:最后,GoogleDuplex使用语音合成技术将计算机生成的文本转换为自然语言音频输出,以向用户提供信息。
  GoogleDuplex的架构可以分为前端和后端两部分。前端包括语音识别、自然语言理解和对话管理等组件,后端包括语音合成、文本生成和自然语言处理等组件。前端和后端之间通过Google的自有网络连接,以实现高效的通信和处理速度。
  爆发:2020年代
  在这个时期,基于预训练模型的技术框架成为主流。这些模型可以在大型语料库上进行训练,从而更好地理解用户意图和生成自然语言回复。这些模型包括BERT、GPT和T5等。此外,使用生成对抗网络(GenerativeAdversarialNetwork,简称GAN)的技术框架也在智能聊天机器人中得到应用。
  GPT32020
  GPT3(GenerativePretrainedTransformer3)是由OpenAI公司开发的自然语言处理模型,是目前世界上最大、最先进的预训练语言模型之一。它采用了Transformer模型架构,利用大量的语料库进行无监督学习,能够生成高质量的自然语言文本,具备极强的自然语言生成、问答、文本摘要、机器翻译等能力。
  GPT3模型具有多种不同的能力和用途,可以用于生成各种类型的自然语言文本,例如电子邮件、新闻报道、论文摘要等等。此外,它还可以用于智能客服、智能助手、智能编程等领域,为人们提供更加便捷、高效的服务。
  GPT3的架构和原理基于深度神经网络,包括了1750亿个参数,能够处理大量的语言信息,同时还具有强大的上下文感知能力和理解能力。GPT3通过对大量语料的学习,能够自动掌握语言规则、语义、语法等知识,从而生成更加准确、流畅、自然的文本。同时,GPT3还具备了一定的推理能力,能够理解上下文和语义信息,根据问题提供相应的答案,实现基于自然语言的智能对话和问答系统。
  GPT3之所以强大,是因为它采用了基于Transformer的深度学习技术,并且在训练数据和模型规模上有了显著的提升。以下是GPT3的技术原理:基于Transformer的架构:GPT3使用了基于Transformer的神经网络结构,该结构由Vaswani等人在2017年提出。相比传统的循环神经网络(RNN)或卷积神经网络(CNN),Transformer通过自注意力机制实现了对序列信息的并行处理和全局关联,大大提高了模型的效率和准确性。大规模的训练数据:GPT3的训练数据集达到了数万亿级别,这使得模型可以从大量的真实语言数据中学习到更为复杂的语言模式和规律,从而提高了模型的表现和泛化能力。自适应训练技术:GPT3在训练过程中采用了自适应学习技术,即每个样本都有不同的权重,使得模型更加关注困难和容易出错的样本,从而进一步提高了模型的准确性。零样本学习技术:GPT3在零样本学习方面也取得了重要进展,即模型可以在没有特定训练数据的情况下执行任务。这得益于GPT3的大规模预训练模式,使得模型在训练数据和任务特定数据之间建立了通用的语言模型和知识库。
  Transformer是一种基于自注意力机制(selfattention)的神经网络结构,广泛应用于自然语言处理任务中,例如机器翻译、文本分类、文本生成等。相比于传统的RNN和CNN模型,Transformer具有并行化计算、长距离依赖建模能力强等优势。
  Transformer的核心思想是自注意力机制,即在一个句子中每个词都可以依赖于其他词,并且它们的依赖关系可以根据任务进行动态调整。具体地,Transformer模型分为编码器和解码器两部分,每部分由若干个相同的模块堆叠而成。每个模块内部包含多头自注意力和前馈神经网络两个子层。
  多头自注意力层可以看作是对输入句子中的所有词进行聚合编码的过程,每个词都可以通过对其他词的关注来得到一个向量表示。在这个过程中,可以对不同的注意力头进行加权融合,使得不同的注意力机制可以学习到不同的依赖关系。
  前馈神经网络层则可以看作是一个非线性变换,将自注意力层输出的向量映射到一个新的高维向量空间中。这样可以更好地捕捉输入句子中的非线性特征,从而提高模型的性能。
  整个Transformer模型的训练过程使用了基于自注意力机制的遮盖机制,使得每个词只能看到其前面的词,从而避免了模型在训练时看到未来信息的情况。此外,还使用了残差连接和层归一化等技术来缓解梯度消失问题和加速模型收敛。
  GPT3使用了多种方法来搜集大规模的训练数据,主要来源为:网络爬虫:GPT3使用网络爬虫从互联网上搜集文本数据。它从数以亿计的网页中搜集数据,并使用语言处理技术来清理和标准化这些数据,以便在模型训练中使用。公共语料库:GPT3使用公共语料库中的数据,这些语料库通常由大学、研究机构和政府机构维护。这些语料库中包含了大量的文本数据,例如新闻文章、小说、论文等。人工创建的数据集:GPT3还使用了人工创建的数据集,例如问题答案对、断句等。这些数据集通常由众包平台上的工人创建,然后进行审核和清理,以确保数据的质量。内部数据:GPT3还使用了来自其它Google产品的数据,例如搜索查询、GoogleTranslate翻译等。这些数据可以通过Google内部的API获得。
  自适应训练技术在模型训练过程中,根据每个数据样本的难易程度和模型对该样本的表现来动态调整训练的策略和超参数,从而提高模型的泛化能力和性能。自适应训练技术的目标是使模型能够更好地适应不同类型和难度的数据,减少过拟合和欠拟合问题,并提高模型在未见过的数据上的预测准确率。
  自适应训练技术通常包括以下两种方法:CurriculumLearning(课程学习):指在训练过程中,将数据按照一定的难易程度分成不同的阶段,先训练简单的样本,逐步加入难度较高的样本。这样可以避免模型过早地陷入到局部最优解中,提高模型的泛化能力。AdaptiveLearningRates(自适应学习率):指在训练过程中,动态调整每个参数的学习率,以使模型在训练初期快速收敛,在接近收敛时逐渐降低学习率,从而防止模型在训练后期过度调整,出现震荡和不稳定现象。
  零样本学习(Zeroshotlearning)是指在没有任何训练数据的情况下,通过利用先验知识和元学习技术来完成对未知类别的分类任务。传统的分类模型只能对其训练数据中出现过的类别进行分类,而零样本学习则能够扩展模型的应用场景,使其可以处理更多的未知类别。
  零样本学习的基本思想是,通过将类别的描述信息(如属性、语义表示等)与模型进行关联,使得模型能够根据类别的描述信息来预测其对应的标签。这样一来,当模型遇到未知的类别时,只需要将该类别的描述信息输入模型,就能够得到该类别的标签。这种方法的优点是可以将模型的应用场景扩展到未知的领域,同时避免了收集大量的训练数据的成本和时间消耗。
  在自然语言处理领域中,零样本学习技术已经被广泛应用于词义消歧、句子关系判断等任务中。例如,通过学习单词的语义表示和句子的语义表示,可以将模型应用于未知的单词和句子的关系判断任务中,如判断pasta和spaghetti是否属于同一类别。同时,通过学习词语的属性信息和关系,可以将模型应用于未知词汇的情感分类任务中,如判断unicorn的情感极性。
  零样本学习技术目前仍然是一个开放的研究问题,尚有很多挑战和待解决的问题。例如如何提高模型的泛化能力、如何解决描述信息的噪声和不完整性等。
  论文推荐:AttentionIsAllYouNeedbyAshishVaswanietal。(2017)
  这篇论文介绍了一个名为Transformer的新型神经网络架构,它在翻译任务中表现出色。Transformer是目前基于预训练模型的聊天机器人中广泛使用的框架。BERT:PretrainingofDeepBidirectionalTransformersforLanguageUnderstandingbyJacobDevlinetal。(2019)
  这篇论文介绍了BERT(BidirectionalEncoderRepresentationsfromTransformers)模型,它是目前自然语言处理中最为流行的预训练模型之一。BERT模型在多项自然语言处理任务中均取得了领先的结果。GPT2:LanguageModelsareUnsupervisedMultitaskLearnersbyAlecRadfordetal。(2019)
  这篇论文介绍了GPT2(GenerativePretrainedTransformer2)模型,它是一种基于Transformer的大规模语言模型。GPT2模型能够生成高质量的自然语言文本,并在多个自然语言处理任务中取得了领先的结果。DialogueResponseGenerationwithImplicitMemoryNetbyXiaodongLiuetal。(2018)
  这篇论文介绍了一种名为ImplicitMemoryNet的模型,它使用记忆网络来维护对话历史,并生成自然语言回复。这个模型在多项任务中均取得了优异的结果。DialoGPT:LargeScaleGenerativePretrainingforConversationalResponseGenerationbyWeiWuetal。(2020)
  这篇论文介绍了DialoGPT,它是一个基于GPT2的大规模对话生成模型。DialoGPT能够生成高质量的自然语言回复,并在多项对话生成任务中取得了领先的结果。

刘海更大了!Mate50Pro再曝黑科技满满8月27日消息,据数码博主数码闲聊站爆料,华为Mate50Pro搭载一块1。5K分辨率的曲面屏,刘海比Mate40Pro大一些,接近Mate20Pro,支持人脸识别和姿势监测功……超5款新车下周陆续上市!价格都曝光了,超多好车4月,即将迎来2019上海车展车展毫无疑问是4月的重头戏也许为了避免被车展抢戏4月上市的新车不算太多以下几款值得一看东风本田享域东风本田享域……买致炫还是加钱买雷凌?看试驾老生深度解析丰田致炫和雷凌的品质都非常出色,都具有很强的性价比。至于买致炫还是加钱买雷凌,一看用车环境与需求,一个人上下班代步为主选致炫就够了;二看预算,如果只能加一两万就白搭,如果……论四驱,这几个汽车品牌可秒杀七成对手上一篇砖叔为大家讲了奥迪、Jeep和路虎这些品牌比较牛的四驱技术(点击查看),也正是有着这项技术的加持,才让它们名声大噪。事不宜迟,今天我将继续为大家讲解讴歌、斯巴鲁、三菱这三……巴西第二!大数据世界杯夺冠率,葡萄牙遭无视,榜首引发争议北京时间6月15日讯:本届世界杯的32强已经全部出炉,而有关世界杯话题的热度也提前开始预热。根据StatsPerform的大数据模型预测,本届世界杯的夺冠概率排行榜被公布了出来……2。0T10AT!配置内饰丝毫不输奥迪A6,这款豪车居然只卖如果我没有记错的话,CTS这辆车的定位是一辆奢侈车,它卖的时候比ATS高,但比CT6低。作为最后一代的CTS来说的话,2014年哪款是没有引起消费者的注意,所以最终将其停产了。……光遇2022年剩四次复刻,12月还有三次,玩家肝不动了光遇:2022年剩四次复刻,12月还有三次,玩家:肝不动了前言:大家好,我是喜欢玩游戏、聊游戏的孟婆小叔。3号至7号,复刻魔法季的公主,对于已经复刻的玩家来说……新车刮花一点点,保养时可以处理一下吗?尊敬的题主您好。您所提问的问题:新车刮花一点点,保养时可以处理一下吗?我只能说:天时地利人和合一,保养时可以处理一下(免费或交钱)。理由如下:1、您没说……全新S级曝光,越改越废,内饰改的不如7系?本文为新车谍照文,营养不足但有料有看头。现款奔驰S级推入市场多年,目前市场表现其实非常不错,无论是市场认可度以及产品溢价能力也居于BBA之首,奔驰全新的设计语言以及产品定……极边之城的秋日和煦(云南腾冲)飞啊飞啊,我的骄傲放纵在云南似乎很难避开东方航空,依然是选择在昆明住了一夜,然后抹黑起个大早,带着惺忪的睡眼和不美丽的心情去赶最早一班去腾冲的飞机。美丽的彩云之南,即使你……五十多万的宝马X4,开两千多公里就出故障,售后的话让人难以接福州的黄先生向我们反映,他在今年一月份在福州新盈宝宝马4s店购买了一辆宝马X4,但没想到两个月不到,这款车就坏了,并且还是在高速公路上,突然丧失了动力,无法前行。事后,黄先生回……19款奔驰GLS450它那咆哮的引擎,快上车带你去捕捉第一缕19款奔驰LGS450它还真的没有给我们太大的惊喜,一切都显得那么熟悉。内饰没什么特别或令人兴奋的,但这并不意味着什么都不好。不过有一点却很值得一看:在大多数汽车制造商都努力使……
开大众途观L,你认为是什么样的人?什么样的人?这个问题太宽泛,三言两语又很难准确描述一类人!说说我的认知对于车,在自媒体高度发达的今天,毫无疑问,大众成为众多车评人口诛笔伐的对象。途观,作为大众国产……奇瑞路虎系列下的车,价格谁知道?前段时间陪朋友看车,从销售那里了解到,奇瑞路虎是奇瑞捷豹路虎旗下的系列车型,而奇瑞捷豹路虎品牌一共有5款车,其中包含奇瑞捷豹车型三款,奇瑞路虎车型两款,同时还覆盖了新能源车型。……老婆,你就是我的福气头条创作挑战赛文芨芨草这是朋友写给他太太的一封情书。他说这是想给她的生日礼物,担心自己写得不好,特地来找我帮他润笔。其实信写得挺好的,连我都被感动了。有……红路推荐大圣远去红龙再度沉睡格子军团在国际大赛的表现可谓是韧性十足,球迷们都戏称是加时赛之王,2018年世界杯获得亚军,2022年卡塔尔世界杯获得季军,虽然会有人说都是靠加时点球赢,但是竞技体育,赢家才是……为什么中国还是造不出优秀的发动机?不应该这么提问题,你应该这么问中国为什么制造的发动机还达不到优秀的标准。实事求是的讲,我国的汽车工业起步较晚,但是,目前的引擎技术可以与国外看齐,做的一点都不差。有些东西大家看……公司名下的车,总共可以抵多少税,该怎么操作?公司购车,的确可以达到节税效果,可以抵增值税、企业所得税等。具体金额计算如下:假设购买车辆支出100万元(含税),如果取得合格的《机动车销售统一发票》,发票所载金额可以据……人生下半场最难得的四种能力人生就像一座山,每攀爬到一个阶段,就会遇到不同的问题和挫折。弱者望而却步,瞻前顾后;强者于难中坚守,砥砺前行。人到一定年纪最难得的是这四种能力01hr沉静力……贝加尔湖2017年7。298。4伊尔库茨克篇(由于本人记忆力不好,导游讲解时没记住多少,下面有些资料来自网上,以便将来翻阅)伊尔库茨克市位于贝加尔湖南端,被称为西伯利亚的心脏、东方巴黎、西伯利亚的……亚洲龙混动23。98万和雅阁混动23。68的选哪款更合适?本人认为选择雅阁混动。虽然亚洲龙采用混合喷射发动机。融合了多点电喷和直喷各自的弊端和不足,因此将二者结合起来应用的混合喷射技术应运而生。在引擎技术上作为消费者可能似懂非懂……从明天开始的病有时候,看到善用每分每秒、忙碌生活的人们,会觉得这些人与我截然不同。他们一点都不浪费生命,努力生活的样子。有时我也会被这种人生的气场迷惑,然后对总是嚷嚷着从明天开始的我而感到心……旧州古镇舞龙闹元宵来源:【安顺日报掌上安顺】咚咚锵。。。。。。2月4日晚上7时许,西秀区旧州古镇西街上响起了欢庆的锣鼓声,周边的居民和市民游客闻声而来,为自己观看舞龙表演占据一个好位置。随……当短靴和乐福鞋穿在同一个人脚上,我发现风格差别也挺大的现代女性对鞋子的要求早已不是以好看为唯一标准了。适用的场合、百搭的程度、舒适的脚感统统都是在买鞋时需要考虑的因素。平底休闲鞋虽然足够舒适,但是却少了那一份女人味,而精致的……
友情链接:易事利快生活快传网聚热点七猫云快好知快百科中准网快好找文好找中准网快软网