大家好,感谢邀请,今天来为大家分享一下人工智能历史目前瓶颈的问题,以及和人工智能历史目前瓶颈期的一些困惑,大家要是还不太明白的话,也没有关系,因为接下来将为大家分享,希望可以帮助到大家,解决大家的问题,下面就开始吧!
本文目录
物理学已经发展到瓶颈了吗?
我觉得题主或许对物理学的发展有什么误会。讲真近100年来的物理学发展,其实是人类史上发展最快的100年。我们来简单做一个对比,就能够知道目前的科学发展到底有多快了。
首先,科学起源于古希腊的自然哲学,尤其是毕达哥拉斯和柏拉图的那一支,到了亚里士多德时期,他是集大成者。
他在自己师兄的基础上提出的地心说,以及托勒密最后做出的地心说模型,大概花了700年左右的时间。(从泰勒斯约公元前624年-公元前547或546年,到托勒密公元90年-公元168年)
从托勒密开始,自然哲学几乎是停滞的状态,甚至整个西欧都不知道原来生活在这片土地上的人有过这么璀璨的文化。而继承者是阿拉伯人,但是他们做出的贡献十分有限,以知道文艺复兴其实,依旧是托勒密做出地心说1400年左右的时间,西欧的人民才知道原来古希腊罗马时期的文化这么繁盛。也就是在整个时候,哥白尼提出了自己的日心说,开启了哥白尼革命,
从哥白尼开始一直到牛顿提出牛顿力学,万有引力定律,一共花了200多年(从哥白尼1473年2月19日-1543年5月24日,到牛顿1643年1月4日-1727年3月31日)也就是说,科学发展的第一阶段,用了700多年,跨越到第二阶段用了1400多年,而第二阶段,又花了200多年。
接近着,物理学成了数学家手中万物,他开始深化牛顿力学,并且把牛顿力学发扬光大,甚至还可以预测行星的存在。而这段时间物理学几乎是停滞的,直到麦克斯韦提出麦克斯韦方程(麦克斯韦1831年6月13日-1879年11月5日),而麦克斯韦和牛顿力学的矛盾,终于催生了相对论和量子力学,这也应了物理学的第二座高峰,从牛顿到相对论量子力学的诞生,前前后后用了250多年的时间。
量子力学的黄金年代在1930年之后就慢慢暗淡了下来,随后开始剧烈发展的是粒子物理标准模型,大概是从50年代开始一直到70年代结束。
这短短的20年左右,科学家们同意了四大作用力当中的,强相互作用力,弱相互作用力以及电磁力。他们有尝试过把万有引力也纳入进来,但失败了。
而且就几乎在同时,科学家又发展出了一个有望继承大一统理论的弦论。但由于观测仪器的限制,我们还没办法验证弦论的正确与否。
而从相对论,量子力学再到粒子物理标准模型,以及弦论,至今不过100年左右,比起科学之前的发展,这已经是非常非常快的了。这还没完,这只是理论物理学,其实在20世纪快速发展的还有天体物理学,大爆炸理论,暴涨理论,以及发展宇宙微波背景辐射,引力波,黑洞,暗物质,暗能量都足以载入史册。科技方面,三极管,激光,芯片,通信等方面都有长足的进步。所以,20世纪,或者说近一百年来,其实科学的发展速度并不慢,应该是说特别快。
科学发展受到的限制而理论物理学之所以让人觉得慢,很有可能是很多人在期待类似于相对论和量子力学,牛顿力学,麦克斯韦方程这样的成就。但是,我们要知道的是,是不是可以搞得出全新的理论物理学理论,并不是在于人类的智力,更重要的是观测仪器。
新的理论来自于新的误差。
为什么这么说呢?最早牛顿提出牛顿定律,其实是牛顿解释了肉眼或者用低倍望远镜就能观察到的宏观低速的世界,在这个世界里,牛顿力学的理论和现实拟合得非常完美。后来物理学似乎就停滞住了。这其实是因为观测水平限制住了,人类很难看到原子级的现象,或者大尺度(引力大,速度快)的现象,看不到现象就提不出理论,这是很正常的。可到了20世纪初,观测水平太高,使得科学家提出了两个理论,广义相对论在大尺度上和现实拟合得很好,量子力学在亚原子级的尺度上和现实拟合得非常好。恰恰牛顿力学在更大和更小尺度就显示出了不足,误差变得特别大。
因此,新的理论其实来自于更精准的观测,来自于观测之后产生的误差。如果没有观测技术的升级,即使爱因斯坦活在古希腊罗马也提不出相对论来。
所以,未来的理论,其实会出现在比相对论适用范围更大的尺度,以及比亚原子级更小的多的尺度。但是目前,我们其实不具备观测到更大和更小尺度的设备。所以,理论物理学没办法发展。
这也是为什么,现在各国都争先恐后地研究引力波,暗物质,暗能量,黑洞的情况,对于这四种现象,是相对论的盲区。如果能够获取到相关的物理学现象,那理论物理学就很有可能取得长足的发挥
我们国家在这四个领域都各自投入了千亿级的资金去做研究,前段时间的悟空探测器就是针对暗物质的探测器。而弦论一直都是假说的原因,也就在这里,因为它的尺度比我们现在精度最高的观测设备的误差还要小很多很多,你说这咋验证这个理论到底对不对?
所以,其实理论物理学的发展理应是越来越慢的,因为观测技术的提升越来越慢。但是事实却反了,科学的发展其实仔细盘下来是加速发展的,这其实体现了现代人十分重视科学发展的一面。
最后,还是那一句话,理论物理学的发展不是受到人类智力的局限,而是受到观测技术的局限。
未来30年,人工智能将全面入侵生活?
就智慧商显这个行业来说,目前我们已经将部分人工智能技术运用到了实际生活当中。比如人脸识别技术,除了大家已经熟知的门禁系统、教育管理系统、公共安全系统等,现在已经被运用到广告的精准投放领域!通过这项技术,我们可以精确的统计出任意时段内进店驻留的单个客流的男女属性和年龄,男女属性的精确度在99.5%以上,年龄精确度90%以上,误差不超过3岁。在抓取用户面部信息后系统可以在1~2秒内切换到针对性的广告内容。
智慧教育将在下阶段成为发力的目标。交互式智能平板,集成大屏幕高清显示、交互式电子白板、电脑、电视、音箱、网络传输等等多想功能于一体的多媒体教学演示与操作平台,将被广泛应用到教育领域。
智慧会议成为另一个革新阵地!当人类由“书纸”向“屏幕”跃迁,信息和灵感的载体将更多地转变为通过“屏幕”呈现已是大势所趋。智能会议通过良好的人机交互设计,让设备能够更好地响应、配合用户的行为指令,在细节化体验上做到足够真实,让设备因被用户作为效率工具、生产力工具而显得更加智能。智能白板,媲美真实的书写体验,人性化的手势操作,手背轻松擦除,内容随时圈点、批注,放大缩小移动自由随心,尽情勾勒心中所想,让灵感不中断。所有白板内容均被记录,通过手机扫码马上带走。
无线投影,支持电脑及手机无线投屏,轻轻一按快速投影,画面轻松切换,想法随时分享,让创意“无缝连接”;大屏高清显示,让你享受绚丽的影像画质,创意不再“黯然失色”。在人工智能上的深研精进,如图像识别、人脸识别、手势识别、语音识别等,期许将技术更好地连接至以用户为中心的会议场景中。让每一次会议都卓有成效。
人工智能在2050年会到达瓶颈吗?
人工智能到2050年会到达瓶颈吗?
这个问题就看你怎么去分析。2050年不过离现在也就是30多年,从以往高科技发展趋势来看,随着高科技的不断更新,科技含量越高的电子产品淘汰率越高,似乎每年约有百分之十的淘汰率,十年后,我们现在所用的一些高科技产品可能都会被淘汰,它们将会以新的面目出现在我们面前。也就是说,我们现在所认为的人工智能只不过是一个概念,十年之后的人工智能将以全新的面目出现在人们面前。我们现在所认为的所谓瓶颈,实际上是人类认识的新阶段,到那时,人工智能可能与现在的我们理解完全不一样,而是一个新型的、全新的人类助手。
到那时,人工智能的概念可能已经扩展到人类能够触及的领域,电子大脑会复制人类机体的所有信息密码,并协助人类破解生命的秘密,人类所认识的物质通过电子大脑进一步解密,人类由此发现了生命只不过是物质发展的一个阶段,人类的智慧、以及一切生物生命状态,不过是物质的固有属性通过生命显示出来,在我们认识的这个宇宙中,物质可能是通过不同方式提现生命状态的,地球生命只不过是其中的一个形态,我们人类也不过是物质生命发展趋势中一个阶段,在以后漫长的岁月中,人类自身可能会发生重大变化,人类自身对生命的意义的认识也会发生重大变化。
现在,我们从人类对基因工程认识和研究,以及对信息技术深度认识,不难看到,未来的人工智能可能让我们难以理解和想象。
现在的人工智能陷入瓶颈了吗?
目前,AI发展的瓶颈主要有以下三点:
1.对数据的极度贪婪和依赖;
2.运行机制和模型的不透明;
3.脆弱性,错误不可控。
这三点缺陷导致了想象中的AI与真实落地的AI之间形成了几重落差。
Gap1:(想象的)大数据VS(现实的)小数据、脏数据、假数据、违规数据、孤岛数据在数据行业摸爬滚打多年、最近转行到AI创业公司的数据分析师“小J”颇有感悟:“这些年,媒体和各行各业言必称大数据,客户看到自己数据库存了多少TB甚至PB了,就以为自己有大数据;问客户某某数据有没有,客户满口说有。等实际入场后才发现,数据根本不可用,有些字段错得离谱,有些字段又太稀疏,等你做完清理后,剩下的数据可能跑个逻辑回归都够呛,根本没法上深度学习。
有些数据需要手工生成,质量也不可靠。有一次做浙江某轮胎厂的故障检测项目,故障样本是工厂每月被客户退回来的问题轮胎,几百上千个在露天的空场上堆成小山,落满了灰,只好雇人爬上去把灰擦一擦看清楚型号批次,再把信息和故障记下来。大热天的,又脏又累,后来就有人学会了偷懒,假造数据。
还有数据孤岛,比如A、B企业的数据维度都比较单一,但可以互补,需要放到一起才有价值,而A和B出于监管考虑又不能交换数据。一些大企业内部也有数据孤岛,实质是部门竞争、不愿配合,非要闹到大老板那儿去。即使老板拍板下来要打通,也有各种手段让你的效果大打折扣,脱敏、二次加工、延时等等。
数据来源有时打打擦边球也是公开的秘密了。在一些信息安全措施不那么严格的行业,找内部人员用硬盘拷数据是最经济有效的。几乎所有公司都在用爬虫,前不久有公司刚被抓,爬简历上的个人隐私牟利,算是行业反面教材了。”
Gap2:AI训练测试数据VS实际运行环境数据如果把训练好的模型作为软件模块来集成,模块的输出受输入数据分布变化的影响,不能按模块之间的合约(contract)“办事”,造成其他模块无法正常工作。
更难受的是,何时、何种情况下会“违约”,无法预先界定。所以当系统给AI软件模块一个任务时,它能不能完成,能完成到什么程度,没准。
这就好比一个公司告诉你,在我司测试环境下,行人检测模型准确率为99.99999%;但在您的实际驾驶环境中,预计准确率在97%~99%之间,且我司既不确保准确率有多少,也无法判断何时准确率会异常。这车您还敢开吗?
如果把训练算法作为软件模块来集成呢?也有新问题。
训练算法的输出依赖训练数据,而生产环境中的数据受太多因素干扰:隐藏的信息反馈循环、未声明的调用模块,都会让数据相互影响,不可控、不好追查。此外,在给真实客户做AI项目时,不同项目、项目不同阶段,都会带来不同的数据,从而影响算法网络结构设计和模型参数设定。
有多年工程及算法经验、待过互联网大厂也做过toB项目的“老P”说:“做AI项目,客户第一次会给一小撮数据样本让你理解业务数据,等你入场做PoC(ProofofConcept,可行性验证)时会拿到批量的真实历史数据,等项目上生产环境你会碰到更实时的数据,等运行一段时间后又必然会遇到各种新情况,例如客户的用户定位调整了、政策有变导致业务环境变了等等。
这四个不同阶段,你所认知的客户数据的特点和分布都会变,而变化就意味着可能要重调超参数,重设网络结构,甚至重新取舍算法……折腾啊,但没办法,这就是做AI项目的命。”
更要命的是,这是长期的“折腾”;是时间、地点、人物不定的折腾;得去客户现场折腾,而不能远程云折腾;得派很贵的、掌握炼金经验和调参玄学的算法工程师去折腾,而不能让普通软件工程师去折腾。
这就引出了AI落地时的第三个落差,也是最现实的挑战:
Gap3:AItoB项目对高级算法人才长期驻场的强需求VS此类人才的驻场成本和意愿为什么toB项目通常都要驻场?现阶段,大中型企业才有足够的数据、业务场景和钱做AI,而大公司对数据又有超强保护意识,数据不出门、不落地。要碰数据可以,请到客户现场来,有时还要求用客户提供的电脑干活。
为什么要长期驻场?
典型的AItoB项目有以下几个流程:
1.初步理解客户业务场景和需求;
2.初步调研客户数据情况;
3.可行性判断和初步方案设计;
4.深度理解客户业务,细化或调整AI算法目标和达到目标的路径;
5.深度理解客户数据构成、语义、质量和分布等细节,细化或调整算法方案和模型结构;
6.数据清洗和特征工程;
7.部署测试环境,训练并调参模型(效果不好的话要回到步骤4、5、6进行优化);
8.生产环境部署上线,调试生产bug(如数据泄露);
9.持续监控生产环境输入输出数据变化,并随时回到步骤4、5、6。
这里的4、5、6、7、8、9必须在客户现场完成,1、2可远程完成但也需要与客户交互,只有步骤3完全不涉及客户环境。
先说步骤4、5、6、7、8,短则两三月,长则大半年,跟客户配合程度有关,跟数据质量有关,跟问题复杂度、成熟度有关。更重要的,跟炼金运气有关。
最头疼的是9,前面的步骤即使周期再长,也有结束的一天,但步骤9(生产环境监控优化)却永无宁日,因为业务环境和数据变化是不可避免的,而算法模型不一定能自动适应到最佳状态。
为什么要高级算法人才长期驻场?
正如Rahimi所说,深度学习的理论不完备,算法模型的运行机制不可知,因此,各种调试优化能不能成功,靠的是经验加运气,能力难以快速复制。
这就像学中医一样,初级医师要成长为高级人才,需要做过很多项目,遇过很多情况,成功、失败经验都丰富的老中医手把手带,靠项目和悟性不断积累“望闻问切”的经验。
然而,行业的另一面现实却是,想让高级算法工程师长期驻场,太难了。
首先,驻场意味着人员很难复用,没法一人同时干N个项目,薪资成本是个问题。
其次,搞技术的通常不喜欢驻场,尤其是有经验的高级人才,一般岁数不小、有家有娃,长期出差有困难。
最后,公司里许多高级算法人才可能是在基础研究或底层架构部门,项目工程团队未必请得动。
BAT某云行业销售负责人“阿K”,一度对AI项目满怀憧憬,但后来宁可去卖CDN:“我们今年中了一个千万级的标,其中的AI模块很关键。中标之后项目组都很兴奋,但是要干活时,麻烦了。
客户很看重数据信息安全,对外部驻场人员管得很严,每天上班要指纹打卡,封闭会议室办公,桌面必须保持清洁,否则罚款甚至通报批评。
客户给的IT支持比较少,我们工程师都说,驻场的SDE(SoftwareDevelopeEngineer)其实是SomeoneDoEverything,跟在自家公司时比,驻场干的事太杂了,还没有延续性,不利于他们的技术发展。
现场跟客户沟通遇到些技术分歧时,人家好歹是甲方,我不提醒吧,有些工程师能让客户下不来台;我说他两句吧,人就说驻场要看客户脸色,不想干了。
结果这项目还没做到一半,比较资深的两个AI工程师就回去了,只好换了几个毕业没多久的顶着,项目进展很慢,客户很不爽。别给我搞烂尾了,哎。”
BAT另一朵云的行业售前总监、最近绞尽脑汁往自己行业里集成AI元素的“老W”说:“有一次客户让我们做AI项目PoC,要比较高级的人驻场。我好说歹说,找AI研究部门借了几个人,出差去客户那儿干了一个半月,结果项目没成。以后再找,他们就再也不搭理了。
人家本来就不爱参与客户项目,又发不了paper,这么贵的人工成本花出去,又不一定能成为年终绩效上的业绩。”
驻场需求强烈,且得不到高效满足,是AI公司无法做到真正产品化(从业务运营角度的产品化)的重要原因。困于客户项目的PoC、交付和维护,脱身无门,也就无法大规模扩张。
吴恩达曾说:“如果普通人能在不到一秒的时间内完成某项脑力工作,那么我们很可能可以在现在或不远的将来用AI将其自动化。”
或许更符合事实的情况是这样:如果普通人能在不到一秒的时间内完成某项脑力工作,那么我们很可能可以在现在或不远的将来用AI将其自动化,如果不行,至少可以找到一个符合条件的客户,把我们最贵的算法科学家砸进去,做一个demo出来。
END,本文到此结束,如果可以帮助到大家,还望关注本站哦!