游戏电视苹果数码历史美丽
投稿投诉
美丽时装
彩妆资讯
历史明星
乐活安卓
数码常识
驾车健康
苹果问答
网络发型
电视车载
室内电影
游戏科学
音乐整形

什么是深度学习

  现在各种名词非常火,什么人工智能、机器学习、深度学习,那么我要学习它,当然是要在一个大的方向、轮廓上看到它。比如爬一座山,先远远的看看,对它有一个大致的了解。
  好了,先上一张图,远远的看一下:
  如何理解人工智能、机器学习和深度学习三者的关系
  嗯嗯,这么一看是不是清楚了很多呢?再来一张:
  概念
  深度学习(人工神经网络的研究的概念),英文:DeepLearning,简称:DL。
  PS:看到ML、DL不要再理解成MakeLove、DoLove哦!还清晰的记得有个小伙伴看到HTML问我,这是HowToMakeLove?。
  以下内容来自百科:深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。
  深度学习的概念由Hinton等人于2006年提出。基于深度置信网络(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外Lecun等人提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。
  深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。深度学习的好处是用非监督式或半监督式的特征学习和分层特征提取高效算法来替代手工获取特征。深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。
  同机器学习方法一样,深度机器学习方法也有监督学习与无监督学习之分不同的学习框架下建立的学习模型很是不同例如,卷积神经网络(Convolutionalneuralnetworks,简称CNNs)就是一种深度的监督学习下的机器学习模型,而深度置信网(DeepBeliefNets,简称DBNs)就是一种无监督学习下的机器学习模型。释意
  看完概念你懂了吗?我是没懂。
  在理解深度学习之前我们要先了解两个概念,机器学习和神经网络。
  机器学习和深度学习的具体区别和联系是啥?机器学习
  简单的说机器学习就是让机器去分析数据找规律,并通过找到的规律对新的数据进行处理。
  机器学习理论主要是设计和分析一些让计算机可以自动学习的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多推论问题属于无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。神经网络
  神经网络简单点将就是由好多个神经元组成的系统。这是模拟人类的神经网络。
  神经元是一个简单的分类器,你输入一个
  比如我们有一大堆猫、狗照片,把每一张照片送进一个机器里,机器需要判断这幅照片里的东西是猫还是狗。我们把猫狗图片处理一下,左边是狗的特征向量,右边是猫的
  神经元一个缺点是:它只能切一刀!你给我说说一刀怎么能把下面这两类分开吧。
  解决办法是多层神经网络,底层神经元的输出是高层神经元的输入。我们可以在中间横着砍一刀,竖着砍一刀,然后把左上和右下的部分合在一起,与右上的左下部分分开;也可以围着左上角的边沿砍10刀把这一部分先挖出来,然后和右下角合并。
  每砍一刀,其实就是使用了一个神经元,把不同砍下的半平面做交、并等运算,就是把这些神经元的输出当作输入,后面再连接一个神经元。这个例子中特征的形状称为异或,这种情况一个神经元搞不定,但是两层神经元就能正确对其进行分类。
  只要你能砍足够多刀,把结果拼在一起,什么奇怪形状的边界神经网络都能够表示,所以说神经网络在理论上可以表示很复杂的函数空间分布。但是真实的神经网络是否能摆动到正确的位置还要看网络初始值设置、样本容量和分布。深度学习
  那什么是深度学习呢?深度学习简单点说就是一种为了让层数较多的多层神经网络可以训练,能够运行起来而演化出来的一系列的新的结构和新的方法。
  就像下图
  普通的神经网络可能只有几层,深度学习可以达到十几层。深度学习中的深度二字也代表了神经网络的层数。现在流行的深度学习网络结构有CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的等。现在流行的深度学习框架有MXnet,tensorflow,caffe等,而在这些框架之上(或许不太准确),还有PyTorch,Keras等。应用场景
  深度学习目前的行业应用、一些标志性公司、代表性的技术等
  语音识别技术:国内公司讯飞、百度、阿里,国外公司亚马逊,微软等,行业应用就是智能音箱等产品。
  图像识别技术:比如做安防的海康威视,图森科技,依图科技,旷视科技,代表性的就是面部识别,人脸识别,刷脸解锁、支付等。
  自动驾驶技术:比如特斯拉,uber,百度等公司开发的。
  金融领域的如:预测股价、医疗领域的疾病监测,教育领域的技术赋能等。小结
  看山是山,这里我们弄明白它属于机器学习,而机器学习属于人工智能,而人工智能呢?也就是由人来实现的东西,智能本不是机器的,而是人的;是人通过一些技术手段赋予机器的,而赋予它的一个强有力的方法就是深度学习。而深度学习中的神经网络模型,其设计灵感来自于生物神经网络。历史上,科学家一直希望模拟人的大脑,造出可以思考的机器。人为什么能够思考?科学家发现,原因在于人体的神经网络。
  附深度学习的25个概念
  神经网络基础
  1)神经元(Neuron)就像形成我们大脑基本元素的神经元一样,神经元形成神经网络的基本结构。想象一下,当我们得到新信息时我们该怎么做。当我们获取信息时,我们一般会处理它,然后生成一个输出。类似地,在神经网络的情况下,神经元接收输入,处理它并产生输出,而这个输出被发送到其他神经元用于进一步处理,或者作为最终输出进行输出。
  2)权重(Weights)当输入进入神经元时,它会乘以一个权重。例如,如果一个神经元有两个输入,则每个输入将具有分配给它的一个关联权重。我们随机初始化权重,并在模型训练过程中更新这些权重。训练后的神经网络对其输入赋予较高的权重,这是它认为与不那么重要的输入相比更为重要的输入。为零的权重则表示特定的特征是微不足道的。
  让我们假设输入为a,并且与其相关联的权重为W1,那么在通过节点之后,输入变为aW1
  3)偏差(Bias)除了权重之外,另一个被应用于输入的线性分量被称为偏差。它被加到权重与输入相乘的结果中。基本上添加偏差的目的是来改变权重与输入相乘所得结果的范围的。添加偏差后,结果将看起来像aW1偏差。这是输入变换的最终线性分量。
  4)激活函数(ActivationFunction)一旦将线性分量应用于输入,将会需要应用一个非线性函数。这通过将激活函数应用于线性组合来完成。激活函数将输入信号转换为输出信号。应用激活函数后的输出看起来像f(aW1b),其中f()就是激活函数。
  在下图中,我们将n个输入给定为X1到Xn而与其相应的权重为Wk1到Wkn。我们有一个给定值为bk的偏差。权重首先乘以与其对应的输入,然后与偏差加在一起。而这个值叫做u。
  UWXb
  激活函数被应用于u,即f(u),并且我们会从神经元接收最终输出,如ykf(u)。
  常用的激活函数
  最常用的激活函数就是Sigmoid,ReLU和softmax
  a)Sigmoid最常用的激活函数之一是Sigmoid,它被定义为:
  Sigmoid变换产生一个值为0到1之间更平滑的范围。我们可能需要观察在输入值略有变化时输出值中发生的变化。光滑的曲线使我们能够做到这一点,因此优于阶跃函数。
  b)ReLU(整流线性单位)与Sigmoid函数不同的是,最近的网络更喜欢使用ReLu激活函数来处理隐藏层。该函数定义为:
  当X0时,函数的输出值为X;当X0时,输出值为0。函数图如下图所示:
  使用ReLU函数的最主要的好处是对于大于0的所有输入来说,它都有一个不变的导数值。常数导数值有助于网络训练进行得更快。
  c)SoftmaxSoftmax激活函数通常用于输出层,用于分类问题。它与sigmoid函数是很类似的,唯一的区别就是输出被归一化为总和为1。Sigmoid函数将发挥作用以防我们有一个二进制输出,但是如果我们有一个多类分类问题,softmax函数使为每个类分配值这种操作变得相当简单,而这可以将其解释为概率。
  以这种方式来操作的话,我们很容易看到假设你正在尝试识别一个可能看起来像8的6。该函数将为每个数字分配值如下。我们可以很容易地看出,最高概率被分配给6,而下一个最高概率分配给8,依此类推
  5)神经网络(NeuralNetwork)神经网络构成了深度学习的支柱。神经网络的目标是找到一个未知函数的近似值。它由相互联系的神经元形成。这些神经元具有权重和在网络训练期间根据错误来进行更新的偏差。激活函数将非线性变换置于线性组合,而这个线性组合稍后会生成输出。激活的神经元的组合会给出输出值。
  一个很好的神经网络定义
  神经网络由许多相互关联的概念化的人造神经元组成,它们之间传递相互数据,并且具有根据网络经验调整的相关权重。神经元具有激活阈值,如果通过其相关权重的组合和传递给他们的数据满足这个阈值的话,其将被解雇;发射神经元的组合导致学习。
  6)输入输出隐藏层(InputOutputHiddenLayer)正如它们名字所代表的那样,输入层是接收输入那一层,本质上是网络的第一层。而输出层是生成输出的那一层,也可以说是网络的最终层。处理层是网络中的隐藏层。这些隐藏层是对传入数据执行特定任务并将其生成的输出传递到下一层的那些层。输入和输出层是我们可见的,而中间层则是隐藏的。
  7)MLP(多层感知器)单个神经元将无法执行高度复杂的任务。因此,我们使用堆栈的神经元来生成我们所需要的输出。在最简单的网络中,我们将有一个输入层、一个隐藏层和一个输出层。每个层都有多个神经元,并且每个层中的所有神经元都连接到下一层的所有神经元。这些网络也可以被称为完全连接的网络。
  8)正向传播(ForwardPropagation)正向传播是指输入通过隐藏层到输出层的运动。在正向传播中,信息沿着一个单一方向前进。输入层将输入提供给隐藏层,然后生成输出。这过程中是没有反向运动的。
  9)成本函数(CostFunction)当我们建立一个网络时,网络试图将输出预测得尽可能靠近实际值。我们使用成本损失函数来衡量网络的准确性。而成本或损失函数会在发生错误时尝试惩罚网络。
  我们在运行网络时的目标是提高我们的预测精度并减少误差,从而最大限度地降低成本。最优化的输出是那些成本或损失函数值最小的输出。
  如果我将成本函数定义为均方误差,则可以写为:
  C1m(ya)2,
  其中m是训练输入的数量,a是预测值,y是该特定示例的实际值。
  学习过程围绕最小化成本来进行。
  10)梯度下降(GradientDescent)梯度下降是一种最小化成本的优化算法。要直观地想一想,在爬山的时候,你应该会采取小步骤,一步一步走下来,而不是一下子跳下来。因此,我们所做的就是,如果我们从一个点x开始,我们向下移动一点,即h,并将我们的位置更新为xh,并且我们继续保持一致,直到达到底部。考虑最低成本点。
  在数学上,为了找到函数的局部最小值,我们通常采取与函数梯度的负数成比例的步长。
  11)学习率(LearningRate)学习率被定义为每次迭代中成本函数中最小化的量。简单来说,我们下降到成本函数的最小值的速率是学习率。我们应该非常仔细地选择学习率,因为它不应该是非常大的,以至于最佳解决方案被错过,也不应该非常低,以至于网络需要融合。
  12)反向传播(Backpropagation)当我们定义神经网络时,我们为我们的节点分配随机权重和偏差值。一旦我们收到单次迭代的输出,我们就可以计算出网络的错误。然后将该错误与成本函数的梯度一起反馈给网络以更新网络的权重。最后更新这些权重,以便减少后续迭代中的错误。使用成本函数的梯度的权重的更新被称为反向传播。
  在反向传播中,网络的运动是向后的,错误随着梯度从外层通过隐藏层流回,权重被更新。
  13)批次(Batches)在训练神经网络的同时,不用一次发送整个输入,我们将输入分成几个随机大小相等的块。与整个数据集一次性馈送到网络时建立的模型相比,批量训练数据使得模型更加广义化。
  14)周期(Epochs)周期被定义为向前和向后传播中所有批次的单次训练迭代。这意味着1个周期是整个输入数据的单次向前和向后传递。
  你可以选择你用来训练网络的周期数量,更多的周期将显示出更高的网络准确性,然而,网络融合也需要更长的时间。另外,你必须注意,如果周期数太高,网络可能会过度拟合。
  15)丢弃(Dropout)Dropout是一种正则化技术,可防止网络过度拟合套。顾名思义,在训练期间,隐藏层中的一定数量的神经元被随机地丢弃。这意味着训练发生在神经网络的不同组合的神经网络的几个架构上。你可以将Dropout视为一种综合技术,然后将多个网络的输出用于产生最终输出。
  16)批量归一化(BatchNormalization)作为一个概念,批量归一化可以被认为是我们在河流中设定为特定检查点的水坝。这样做是为了确保数据的分发与希望获得的下一层相同。当我们训练神经网络时,权重在梯度下降的每个步骤之后都会改变,这会改变数据的形状如何发送到下一层。
  但是下一层预期分布类似于之前所看到的分布。所以我们在将数据发送到下一层之前明确规范化数据。
  卷积神经网络
  17)滤波器(Filters)CNN中的滤波器与加权矩阵一样,它与输入图像的一部分相乘以产生一个回旋输出。我们假设有一个大小为2828的图像,我们随机分配一个大小为33的滤波器,然后与图像不同的33部分相乘,形成所谓的卷积输出。滤波器尺寸通常小于原始图像尺寸。在成本最小化的反向传播期间,滤波器值被更新为重量值。
  参考一下下图,这里filter是一个33矩阵:
  与图像的每个33部分相乘以形成卷积特征。
  18)卷积神经网络(CNN)卷积神经网络基本上应用于图像数据。假设我们有一个输入的大小(28283),如果我们使用正常的神经网络,将有2352(28283)参数。并且随着图像的大小增加参数的数量变得非常大。我们卷积图像以减少参数数量(如上面滤波器定义所示)。当我们将滤波器滑动到输入体积的宽度和高度时,将产生一个二维激活图,给出该滤波器在每个位置的输出。我们将沿深度尺寸堆叠这些激活图,并产生输出量。
  你可以看到下面的图,以获得更清晰的印象。
  19)池化(Pooling)通常在卷积层之间定期引入池层。这基本上是为了减少一些参数,并防止过度拟合。最常见的池化类型是使用MAX操作的滤波器尺寸(2,2)的池层。它会做的是,它将占用原始图像的每个44矩阵的最大值。
  你还可以使用其他操作(如平均池)进行池化,但是最大池数量在实践中表现更好。
  20)填充(Padding)填充是指在图像之间添加额外的零层,以使输出图像的大小与输入相同。这被称为相同的填充。
  在应用滤波器之后,在相同填充的情况下,卷积层具有等于实际图像的大小。
  有效填充是指将图像保持为具有实际或有效的图像的所有像素。在这种情况下,在应用滤波器之后,输出的长度和宽度的大小在每个卷积层处不断减小。
  21)数据增强(DataAugmentation)数据增强是指从给定数据导出的新数据的添加,这可能被证明对预测有益。例如,如果你使光线变亮,可能更容易在较暗的图像中看到猫,或者例如,数字识别中的9可能会稍微倾斜或旋转。在这种情况下,旋转将解决问题并提高我们的模型的准确性。通过旋转或增亮,我们正在提高数据的质量。这被称为数据增强。
  循环神经网络
  22)循环神经元(RecurrentNeuron)循环神经元是在T时间内将神经元的输出发送回给它。如果你看图,输出将返回输入t次。展开的神经元看起来像连接在一起的t个不同的神经元。这个神经元的基本优点是它给出了更广义的输出。
  23)循环神经网络(RNN)循环神经网络特别用于顺序数据,其中先前的输出用于预测下一个输出。在这种情况下,网络中有循环。隐藏神经元内的循环使他们能够存储有关前一个单词的信息一段时间,以便能够预测输出。隐藏层的输出在t时间戳内再次发送到隐藏层。展开的神经元看起来像上图。只有在完成所有的时间戳后,循环神经元的输出才能进入下一层。发送的输出更广泛,以前的信息保留的时间也较长。
  然后根据展开的网络将错误反向传播以更新权重。这被称为通过时间的反向传播(BPTT)。
  24)消失梯度问题(VanishingGradientProblem)激活函数的梯度非常小的情况下会出现消失梯度问题。在权重乘以这些低梯度时的反向传播过程中,它们往往变得非常小,并且随着网络进一步深入而消失。这使得神经网络忘记了长距离依赖。这对循环神经网络来说是一个问题,长期依赖对于网络来说是非常重要的。
  这可以通过使用不具有小梯度的激活函数ReLu来解决。
  25)激增梯度问题(ExplodingGradientProblem)这与消失的梯度问题完全相反,激活函数的梯度过大。在反向传播期间,它使特定节点的权重相对于其他节点的权重非常高,这使得它们不重要。这可以通过剪切梯度来轻松解决,使其不超过一定值。

世界杯惨败却收意外惊喜!王曼昱恩师点名庆祝,孙颖莎高兴早了那么我们都知道,在东京奥运会结束以后,国乒刚刚结束了两场国际大赛,给2021年迎来了一个终极的收官。而且这一次我们的收官非常完美,在世乒赛当中,国乒是包揽4块金牌,成绩相当不错……有种双胞胎叫谢娜女儿,别人家的双胞胎爱穿同款,她却反着来相信很多女人都非常畏惧生孩子,孕期十个月怀胎的辛苦过后,就要迎来生产时带来的痛苦。于是很多想要二胎的家庭,都期盼着能够一次生下一对双胞胎,省得要怀胎两次,然后忍受两次生娃……原神166万玩家在金苹果群岛溺水身亡超过5亿个丘丘人被屠杀你好,欢迎回到Holdon2099的原神世界。先说一个坏消息,快要开学了!原神布置的暑假作业完成了吗?此时此刻,距离2。8版本活动结束还有两天不到,还有多少人没有完成海岛任务?……恭喜孙颖莎,恭喜刘国梁!官媒发布消息,国乒小魔王获得新荣誉恭喜孙颖莎,恭喜刘国梁。据石家庄相关部门发布消息,国乒小魔王孙颖莎再获一项殊荣。原来莎莎被聘为石家庄普法大使。这也是孙颖莎继石家庄特殊人才,石家庄健康形象大使之后又一项重要的荣……大漠深处的星空小时候在农村有个很有趣的比赛,每到傍晚,几个小伙伴凑在一起,比谁数的星星多。随着夜幕降临,天空中的星星从零零散散几个变成几十个、几百个,最后群星璀璨,数到眼花缭乱时,也就到了小……富力卖掉当年收购的万达酒店,王健林则手握几百亿,正在忙着抄底富力5。5亿卖掉了北京的一家酒店,这家酒店就是当时富力从万达手里买下的,这次出售富力将亏损6千多万。2017年富力花了199亿买下了70多座万达酒店,引起了市场轰动。很多……人为什么要远足行走?行万里路,在古人那里,叫做游历。游历可以增长见闻,亲眼看到那山、那水,那片天空和那里的人,如果不走出去,二耳不闻窗外事,一心只读圣贤书,最后就会变成个书呆子,毕竟当时没什么通讯……一汽解放2023年3月销量超3万辆,重卡2。3万辆,同比增长出品搜狐汽车搜狐商用车4月10日晚间,一汽解放集团股份有限公司(以下简称一汽解放)正式发布2023年3月份产销快报。数据显示,2023年3月,一汽解放共计销售整车30,7……s12淘汰队伍回家,4位选手提前发文找队,连世界赛16强都要引子:s12已经打了一段时间,耗时较久的入围赛、小组赛结束,接下就是八强淘汰赛、半决赛和决赛了。目前为止,已经有不少战队淘汰,比如最可惜的G2和TES。这两支队伍都……中超直播大连人VS成都蓉城高清视频直播观赛入口(浏览器复制打开):11zb。nz11直播10月9日讯比赛时间10月9日19点30随着比赛逐渐接近尾声,狼队教练戴维斯和柯林斯利用这个机会给了19岁的……梦回西班牙(上)咱们那会儿去板鸭游学的照片还有吗?那么古早,要干哈?哎呦,疫情大家不是出不去嘛,公司要让分享一下,出境留学或者旅游的那些图片。你们公司不是很多老外的嘛,bos……初十吃十样,出门日子旺,今日正月初十,十样是啥?赶紧看看大家好,这里是小慧今天说美食。不知不觉中,今天已经是农历的大年初十了。春节眨眼间就过完了,快乐的日子总是那么的短暂,那么快,还没有反应过来,春节的假期已将结束,崭新的一年正在向……
华擎为X570B550等主板推出BIOS更新,适配AMD锐龙IT之家8月6日消息AMD锐龙5000G系列桌面处理器近日正式开售,6核的锐龙55600G处理器售价1899元,8核的锐龙75700G售价2599元。为了适配最新的处理器,华擎……比亚迪狂卖20万辆新能源车,对我国的新能源产业意味着什么?千呼万唤始出来,比亚迪终于公布了他们9月份的汽车销量。增长是预料之中的事,但狂卖20多万辆,真的是打脸了很多人。来自网络在国家鼓励新能源的大趋势大背景下,不乏一些媒……父母都不高14岁儿子却长到180cm,坚持做对这3件事,你家为你朗读4分钟8628人赞同了该文章大家好,孩子的身高,可以说是大部分父母都关心的事情。如果自家娃比别人矮,那家长肯定很着急,想着办法给娃长个头。身高虽……52996299元,华硕发布无畏Pro1415RTX3050IT之家9月15日消息华硕今日举办了2021年秋季新品发布会,推出了无畏Pro14和Pro15两款性能轻薄本,分别为14英寸及15。6英寸,分别搭载英特尔酷睿处理器和AMD锐龙……糖尿病友一周三餐怎么吃(03。0703。13)周一早餐全麦面包50克,豆浆1杯,鸡蛋1个,凉拌苦瓜1小碟午餐番茄鸡丁150克,蒜蓉荷兰豆150克,紫菜虾皮汤200克,椒盐花卷120克晚餐……神秘莫测的秦始皇陵大家好,欢迎来到放开思维,我们一起来谈天说地,了解地球的另一面。要说到中国历史上最神秘莫测的陵墓,非秦始皇陵莫属啊。晋朝有一本记载长安城事迹的古书,三辅故事里,写了这么一……9999元起,华硕ProArt创16发布16寸4KOLED屏IT之家9月15日消息华硕今天在国内推出了ProArt创16,拥有顶尖的16寸4KOLED屏幕,专业色准,超一流性能,还有冰川专业散热系统以及独家的ProArt旋钮、梦幻级高速……澳大利亚运营商暗示,谷歌Pixel6Pro将于10月19日推IT之家9月22日消息几周前,谷歌分享了一张Pixel6手机的图片,上面显示的是10月19日星期二的日期。据gsmarena报道,澳大利亚电信运营商Telstra在Fac……认证信息显示,谷歌Pixel6Pro充电速度大增支持33W快IT之家9月20日消息下一款Pixel手机的充电速度不会像以前的那样慢了。从2016年推出的Pixel初代开始,谷歌在每款Pixel手机的包装盒中都配备了18WUSBC充电器。……老公在我坐月子期间出轨我原谅他,没想到他本性如此何思涵经过九死一生,终于把7斤多的儿子生了下来,老公齐华。看着脸色苍白的她,心疼的说老婆,辛苦你了谢谢你给我们家添一口男丁听着周围家人们的关心,祝福,想到自己……春天女人穿这5个颜色毛衣,显白又高级在春天,如果说要选择什么上衣比较好,那么一定就是毛衣了,不冷不热的天气穿起来超级温柔有女人味。像毛衣这种基础百搭款,想要取胜,除了在搭配上下功夫之外,穿对这5种颜色,更是显白和……21世纪都过去二十年了,居然还有人相信地球是平的在人类对地球探索的初期,人们对周遭世界的认识多是通过感官和直觉,看到的世界是天圆地方,就会得出地球是平的的论断,这不足为奇。而如今欧美国家又有不少人开始质疑地球是圆的,他们认为……
友情链接:易事利快生活快传网聚热点七猫云快好知快百科中准网快好找文好找中准网快软网