人工智能发展史pdf(人工智能发展史总结)

大家好,感谢邀请,今天来为大家分享一下人工智能发展史pdf的问题,以及和人工智能发展史总结的一些困惑,大家要是还不太明白的话,也没有关系,因为接下来将为大家分享,希望可以帮助到大家,解决大家的问题,下面就开始吧!

本文目录

  1. 人工智能技术有哪些?
  2. 人工智能的原理是什么?
  3. 人工智能到底有多厉害?
  4. 在A股里,真正的人工智能龙头除了科大讯飞,还有哪几个?

人工智能技术有哪些?

现在人工智能的类型太多了,随着人工智能的普及,应用范围的拓展,还将进入更多的领域。

现在人工智能所涉及的学科有:认知科学,数学,神经生理学,信息论,控制论,不定性论,计算机科学,心理学,哲学,语言,自然科学和社会科学等等几乎所有的学科。

应用领域有:翻译,智能控制,专家系统,机器人学,语言,图像理解,遗传编程,自动程序设计,大信息的处理,储存,管理,执行一些生命体无法执行的任务,或者复杂的和规模庞大的任务等等。

具体应用方面有:网络,工业,农业,航空航天,军事,自然,家庭,个人等等,各行各业都有人工智能的身影。

人工智能的原理是什么?

谢邀!

在回复《人类与AI(人工智能)如何相处?(https://www.wukong.com/answer/6955462920969830692/)》中谈了在面对拥有自我意识的机器人,人类该如何与之相处?又该遵从哪些伦理道德?接下来,借着回复此问题,向大家介绍一下AI的三大核心要素(也是AI的三大基石)——数据、算力和算法。

数据是AI算法的“饲料”

在如今这个时代,无时无刻不在产生数据(包括语音、文本、影像等等),AI产业的飞速发展,也萌生了大量垂直领域的数据需求。在AI技术当中,数据相当于AI算法的“饲料”。机器学习中的监督学习(SupervisedLearning)和半监督学习(Semi-supervisedLearning)都要用标注好的数据进行训练(由此催生大量数据标注公司,对未经处理的初级数据进行加工处理,并转换为机器可识别信息),只有经过大量的训练,覆盖尽可能多的各种场景才能得到一个良好的模型。

目前,数据标注是AI的上游基础产业,以人工标注为主,机器标注为辅。最常见的数据标注类型有五种:属性标注(给目标对象打标签)、框选标注(框选出要识别的对象)、轮廓标注(比框选标注更加具体,边缘更加精确)、描点标注(标注出目标对象上细致的特征点)、其他标注(除以上标注外的数据标注类型)。AI算法需要通过数据训练不断完善,而数据标注是大部分AI算法得以有效运行的关键环节。

算法是AI的背后“推手”

AI算法是数据驱动型算法,是AI背后的推动力量。

主流的算法主要分为传统的机器学习算法和神经网络算法,目前神经网络算法因为深度学习(源于人工神经网络的研究,特点是试图模仿大脑的神经元之间传递和处理信息的模式)的快速发展而达到了高潮。

南京大学计算机系主任、人工智能学院院长周志华教授认为,今天“AI热潮”的出现主要由于机器学习,尤其是机器学习中的深度学习技术取得了巨大进展,并在大数据和大算力的支持下发挥巨大的威力。

当前最具代表性深度学习算法模型有深度神经网络(DeepNeuralNetwork,简称DNN)、循环神经网络(RecurrentNeuralNetwork,简称RNN)、卷积神经网络(ConvolutionalNeuralNetwork,简称CNN)。谈到深度学习,DNN和RNN就是深度学习的基础。DNN内部的神经网络层可以分为三类,输入层,隐藏层和输出层,一般来说第一层是输入层,最后一层是输出层,而中间的层数都是隐藏层。DNN可以理解为有很多隐藏层的神经网络,是非常庞大的系统,训练出来需要很多数据、很强的算力进行支撑。

算力是基础设施

AI算法模型对于算力的巨大需求,推动了今天芯片业的发展。据OpenAI测算,2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍,目前计算量已扩大30万倍,远超算力增长速度。

在AI技术当中,算力是算法和数据的基础设施,支撑着算法和数据,进而影响着AI的发展,算力的大小代表着对数据处理能力的强弱。算力源于芯片,通过基础软件的有效组织,最终释放到终端应用上,作为算力的关键基础,AI芯片的性能决定着AI产业的发展。

加快补齐AI芯片短板

从技术架构来看,AI芯片可以分为四大类:通用性芯片(GPU,特点是具备通用性、性能高、功耗高)、半定制化芯片(FPGA,特点是可编程、功耗和通用性一般)、全定制化芯片(ASIC,特点是不能扩展、性能稳定、功耗可控)和类脑芯片(特点是功耗低、响应速度快)。

AI本质上是使用人工神经网络对人脑进行的模拟,旨在替代人们大脑中的生物神经网络。由于每个任务对芯片的要求不同,所以可以使用不同的AI芯片进行训练和推理。

在过去二十年当中,处理器性能以每年大约55%的速度提升,内存性能的提升速度每年只有10%左右,存储速度严重滞后于处理器的计算速度。随着AI技术的发展,所需数据量变得越来越大,计算量越来越多,“内存墙”(指内存性能严重限制CPU性能发挥的现象)的问题越来越严重。因此,存算一体(将部分或全部的计算移到存储中,计算单元和存储单元集成在同一个芯片,在存储单元内完成运算)有望成为解决芯片性能瓶颈及提升效能比的有效技术手段。

目前,数据中心中核心算力芯片各类通用的GPU占主导地位。IDC的研究指出,2020年,中国的GPU服务器占据95%左右的市场份额,是数据中心AI加速方案的首选。但IDC也做出预测,到2024年,其他类型加速芯片的市场份额将快速发展,AI芯片市场呈现多元化发展趋势。

近些年来,我国AI虽然取得了不少的突破和进展(例如小i机器人主导了全球第一个AI情感计算的国际标准),并在国际上具备一定的竞争力,但AI芯片对外依赖较大(根据赛迪智库人工智能产业形势分析课题组研究指出,国内AI芯片厂商需要大量依靠高通、英伟达、AMD等国际巨头供货),并缺乏AI框架技术(深度学习主流框架TensorFlow、Caffe等均为美国企业或机构掌握)的支撑。

未来人们对科技的依赖会与日俱增,AI也将会成为大国竞争的焦点。为摆脱我国AI的短板,有专家表示AI芯片方面我国可以借鉴开源软件成功经验,降低创新门槛,提高企业自主能力,发展国产开源芯片;算法框架方面则可通过开源形成广泛的应用生态,广泛支持不同类型的AI芯片、硬件设备、应用等。

算法、算力、数据作为AI核心三要素,相互影响,相互支撑,在不同行业中形成了不一样的产业形态,随着算法的创新、算力的增强、数据资源的累积,传统基础设施将借此东风实现智能化升级,并有望推动经济发展全要素的智能化革新,让人类社会从信息化进入智能化。

最后,再顺便打个小广告,“陈思进财经漫画”系列第一部《漫画生活中的财经》新鲜出炉,谢谢关注!

你对这个问题有什么更好的意见吗?欢迎在下方留言讨论!

人工智能到底有多厉害?

诚邀~要想知道人工智能有多厉害,且听工程师小何给你讲讲:

人工智能,就是人们所说的AI,是最近几年特别火的一个技术概念,它主要是研究领域包括机器人、语音算法、图像识别、语言处理等的一门新的技术科学;

人工智能厉害的地方是因为;

1、人工智能能够像人那样思考,具有与人类似的思维和意识;

2、人工智能是一个多领域的科学,首先要精通计算机,心理学和哲学,这就要求人工智能的研究是一个高技术的工作,这也是人工智能高达上的一个原因吧;

3、人工智能目前在某些领域可以做的比人脑更快、更准确,可以胜任大部分人所不能完成的工作,帮助人们解决生活中的困难,这也是人工智能的厉害之处;

4、人工智能的研究反过来会促进人类对大脑的开发,对人类的发展只会更有好处。

以上就是我的回答,感兴趣的小伙伴可以一起交流分享~谢谢~

在A股里,真正的人工智能龙头除了科大讯飞,还有哪几个?

老牌的AI范围相对要窄些,基本集中在机器人、图像识别、汽车驾驶、语音识别、自动设计等领域,那时的AI企业大都集中在高校、智慧城市、智能医疗、自动控制类企业。比如科大讯飞、川大智胜、海康威视、东方网力等都是老牌的帝国主义。

alphago之后,AI的最大改变是大数据的应用,这使得AI范围迅速扩大,扩展到了商业、环保、制造。。。几乎所有的企业。此时再分AI就比较困难了,目前领头的企业倡导的火热方向是自动驾驶、医疗、环保、交通等领域。

科大讯飞的语音处理很有名,川大智胜的图像处理很有名,海康威视的图像处理应用非常好,不过,更重要的还是股东的实力和业绩形象,AI的号召力很快就会枯竭,街上摊煎饼的都可以根据AI算法来提前备货。

OK,本文到此结束,希望对大家有所帮助。

人工智能发展史pdf(人工智能发展史总结)文档下载: PDF DOC TXT