未来简史之人工智能 未来简史 人工智能

老铁们,大家好,相信还有很多朋友对于未来简史之人工智能和人工智能的相关问题不太懂,没关系,今天就由我来为大家分享分享未来简史之人工智能以及人工智能的问题,文章篇幅可能偏长,希望可以帮助到大家,下面一起来看看吧!

本文目录

  1. 什么是人工智能,人工智能能不能像手机一样普及?
  2. 人工智能发展史60个字
  3. 人工智能最经典书籍
  4. 人工智能的原理是什么?

什么是人工智能,人工智能能不能像手机一样普及?

对于人工智能,百度词条上是这么解释的:人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

从不同的角度来讲,人工智能的解释也会不同,比如在计算机领域的人士看来,人工智能属于计算机科学的一个分支,而对于生物学、心理学、神经科学等领域的人士看来人工智恩那个也属于它们的学术范围,甚至有些学哲学的人也在刷存在感。

简单解释来讲,人工智能就是在科技发达的当今社会里,人们研究出的用机器代替人类完成复杂工作的程序,给机器赋予人类的思考、学习和工作的模式。当然,这种"复杂工作"往往是人类都无法完成的,所以很多人开始担心未来人工智能将会取代人类,甚至对人类的安全造成威胁,生活中也不乏看到一些人工智能控制人类的电影。

至于人工智能能不能像手机一样普及,答案一定是肯定的,5G时代的到来就是人工智能普及的开始。其实,你现在放下手机,自己观察一下周边的生活就会发现,人工智能早就悄无声息的渗入到社会中了,比如超市的无人收款台,买东西时的刷脸支付,高铁、地铁、飞机的无人驾驶,车位引导,家里的扫地机器人,智能音箱......都属于人工智能在生活中的应用。

再不久的将来,人工智能的应用将会更加广泛,像手机一样普及也是早晚的事儿,而且手中的智能手机也会变成人工智能手机。

更多优质内容,请持续关注镁客网~

人工智能发展史60个字

人工智能发展史:

第一个是启动期(1956~1966)。1956年夏季,在美国达特茅斯学院,约翰·麦卡锡、马文·闵斯基等科学家聚在一起,举办了长达两个月的在当时人看来无用的神仙对话:如何在机器上实现人类的智能。后经约翰·麦卡锡提议,正式采用了人工智能这一术语,第一次将人工智能作为一门独立学科的研究方向。1958年约翰·麦卡锡发明了表处理语言LISP,这种语言成为建造智能系统的重要工具。会议之后,人类开始了机器模拟人类学习过程的探索。

第二个是萧条波折期(1967~1974)。迅速发展的人工智能取得的一些瞩目成果,使人们产生了乐观情绪。然而,当人们进行了深入的工作后,发现人工智能研究碰到的困难比想像的要多得多。比如,在机器翻译方面,词到词的词典映射法没有成功。在神经网络技术方面,电子线路模拟人脑神经元没有成功;国际象棋走第一步就有10120种可能(组合爆炸)。人工智能的研究进入了萧条、波折时期。有人说,只有上帝才能创造智能,人类不可能创造生命。还有人认为,亘古以来就没有会思考的机器,人工智能就像炼金术、星相学一样是骗人的迷信。在这样的背景下,很多国家和机构减少了对人工智能研究的投入。

第三个是兴旺期(1975~1998)。1977年第五届国际人工智能联合会会议上,费根鲍姆教授系统地阐述了专家系统的思想,并提出了“知识工程”的概念。知识工程的概念使人工智能的研究又有了新的转折点,即从获取智能的基于能力的策略,变成了基于知识的方法研究。知识工程的方法很快渗透了人工智能各个领域,促使人工智能从实验室研究走向实际应用。

进入20世纪90年代,人工智能出现研究高潮,人工智能开始由单个智能主体研究转向基于网络环境下的分布式人工智能研究。人工智能面向实际应用,深入到社会生活的各个领域,出现了欣欣向荣的景象。

人工智能最经典书籍

1、未来学徒人民邮电出版

特点:读懂人工智能飞驰时代

上榜理由:

本书从技术、产业和商业三个角度向读者介绍了当今人工智能的发展状况,让人工智能从历史和数学公式中走到读者身边,成为读者探索产业发展脉络的指南。通过追问人工智能的技术细节,记录下发生在人们身边的人工智能产业跃迁,关注人工智能带来的变革。

?2、Tensorflow实战google深度学习框架第2版

特点:出版社直发

上榜理由:

TensorFlow是谷歌2015年开源的主流深度学习框架,目前已得到广泛应用。本书为TensorFlow入门参考书,旨在帮助读者以快速、有效的方式上手TensorFlow和深度学习。书中省略了烦琐的数学模型推导,从实际应用问题出发,通过具体的TensorFlow示例介绍如何使用深度学习解决实际问题。书中包含深度学习的入门知识和大量实践经验,是走进这个前沿、热门的人工智能领域的优选参考书。

?3、智能问答与深度学习王海良著

特点:出版社直发

上榜理由:

《智能问答与深度学习》面向在校学生或计算机软件从业人员,由浅入深地介绍了人工智能在文本任务中的应用。《智能问答与深度学习》不但介绍了自然语言处理、深度学习和机器阅读理解等基础知识,还简述了信息论、人工智能等的发展过程。

?4、神经网络与深度学习实战

特点:理论到实战

上榜理由:

在人工智能的高门槛前建立了多级容易跨越的台阶,提供比较平滑的学习路线,极大地降低了读者的学习难度,从深度学习的数学基础讲起,再重点剖析神经网络的原理与深度学习算法,详解机器视觉、自然语言处理、生成对抗网络等领域的13个应用案例。

?

?

5、【套装3本】人工智能入门python书籍

特点:入门书籍

上榜理由

Python神经网络编程+Python机器学习+Python编程从入门到实践

人工智能的原理是什么?

谢邀!

在回复《人类与AI(人工智能)如何相处?(https://www.wukong.com/answer/6955462920969830692/)》中谈了在面对拥有自我意识的机器人,人类该如何与之相处?又该遵从哪些伦理道德?接下来,借着回复此问题,向大家介绍一下AI的三大核心要素(也是AI的三大基石)——数据、算力和算法。

数据是AI算法的“饲料”

在如今这个时代,无时无刻不在产生数据(包括语音、文本、影像等等),AI产业的飞速发展,也萌生了大量垂直领域的数据需求。在AI技术当中,数据相当于AI算法的“饲料”。机器学习中的监督学习(SupervisedLearning)和半监督学习(Semi-supervisedLearning)都要用标注好的数据进行训练(由此催生大量数据标注公司,对未经处理的初级数据进行加工处理,并转换为机器可识别信息),只有经过大量的训练,覆盖尽可能多的各种场景才能得到一个良好的模型。

目前,数据标注是AI的上游基础产业,以人工标注为主,机器标注为辅。最常见的数据标注类型有五种:属性标注(给目标对象打标签)、框选标注(框选出要识别的对象)、轮廓标注(比框选标注更加具体,边缘更加精确)、描点标注(标注出目标对象上细致的特征点)、其他标注(除以上标注外的数据标注类型)。AI算法需要通过数据训练不断完善,而数据标注是大部分AI算法得以有效运行的关键环节。

算法是AI的背后“推手”

AI算法是数据驱动型算法,是AI背后的推动力量。

主流的算法主要分为传统的机器学习算法和神经网络算法,目前神经网络算法因为深度学习(源于人工神经网络的研究,特点是试图模仿大脑的神经元之间传递和处理信息的模式)的快速发展而达到了高潮。

南京大学计算机系主任、人工智能学院院长周志华教授认为,今天“AI热潮”的出现主要由于机器学习,尤其是机器学习中的深度学习技术取得了巨大进展,并在大数据和大算力的支持下发挥巨大的威力。

当前最具代表性深度学习算法模型有深度神经网络(DeepNeuralNetwork,简称DNN)、循环神经网络(RecurrentNeuralNetwork,简称RNN)、卷积神经网络(ConvolutionalNeuralNetwork,简称CNN)。谈到深度学习,DNN和RNN就是深度学习的基础。DNN内部的神经网络层可以分为三类,输入层,隐藏层和输出层,一般来说第一层是输入层,最后一层是输出层,而中间的层数都是隐藏层。DNN可以理解为有很多隐藏层的神经网络,是非常庞大的系统,训练出来需要很多数据、很强的算力进行支撑。

算力是基础设施

AI算法模型对于算力的巨大需求,推动了今天芯片业的发展。据OpenAI测算,2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍,目前计算量已扩大30万倍,远超算力增长速度。

在AI技术当中,算力是算法和数据的基础设施,支撑着算法和数据,进而影响着AI的发展,算力的大小代表着对数据处理能力的强弱。算力源于芯片,通过基础软件的有效组织,最终释放到终端应用上,作为算力的关键基础,AI芯片的性能决定着AI产业的发展。

加快补齐AI芯片短板

从技术架构来看,AI芯片可以分为四大类:通用性芯片(GPU,特点是具备通用性、性能高、功耗高)、半定制化芯片(FPGA,特点是可编程、功耗和通用性一般)、全定制化芯片(ASIC,特点是不能扩展、性能稳定、功耗可控)和类脑芯片(特点是功耗低、响应速度快)。

AI本质上是使用人工神经网络对人脑进行的模拟,旨在替代人们大脑中的生物神经网络。由于每个任务对芯片的要求不同,所以可以使用不同的AI芯片进行训练和推理。

在过去二十年当中,处理器性能以每年大约55%的速度提升,内存性能的提升速度每年只有10%左右,存储速度严重滞后于处理器的计算速度。随着AI技术的发展,所需数据量变得越来越大,计算量越来越多,“内存墙”(指内存性能严重限制CPU性能发挥的现象)的问题越来越严重。因此,存算一体(将部分或全部的计算移到存储中,计算单元和存储单元集成在同一个芯片,在存储单元内完成运算)有望成为解决芯片性能瓶颈及提升效能比的有效技术手段。

目前,数据中心中核心算力芯片各类通用的GPU占主导地位。IDC的研究指出,2020年,中国的GPU服务器占据95%左右的市场份额,是数据中心AI加速方案的首选。但IDC也做出预测,到2024年,其他类型加速芯片的市场份额将快速发展,AI芯片市场呈现多元化发展趋势。

近些年来,我国AI虽然取得了不少的突破和进展(例如小i机器人主导了全球第一个AI情感计算的国际标准),并在国际上具备一定的竞争力,但AI芯片对外依赖较大(根据赛迪智库人工智能产业形势分析课题组研究指出,国内AI芯片厂商需要大量依靠高通、英伟达、AMD等国际巨头供货),并缺乏AI框架技术(深度学习主流框架TensorFlow、Caffe等均为美国企业或机构掌握)的支撑。

未来人们对科技的依赖会与日俱增,AI也将会成为大国竞争的焦点。为摆脱我国AI的短板,有专家表示AI芯片方面我国可以借鉴开源软件成功经验,降低创新门槛,提高企业自主能力,发展国产开源芯片;算法框架方面则可通过开源形成广泛的应用生态,广泛支持不同类型的AI芯片、硬件设备、应用等。

算法、算力、数据作为AI核心三要素,相互影响,相互支撑,在不同行业中形成了不一样的产业形态,随着算法的创新、算力的增强、数据资源的累积,传统基础设施将借此东风实现智能化升级,并有望推动经济发展全要素的智能化革新,让人类社会从信息化进入智能化。

最后,再顺便打个小广告,“陈思进财经漫画”系列第一部《漫画生活中的财经》新鲜出炉,谢谢关注!

你对这个问题有什么更好的意见吗?欢迎在下方留言讨论!

关于未来简史之人工智能和人工智能的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。

未来简史之人工智能 未来简史 人工智能文档下载: PDF DOC TXT