人工智能改变未来论坛,人工智能改变未来申论

大家好,今天来为大家解答人工智能改变未来论坛这个问题的一些问题点,包括人工智能改变未来申论也一样很多人还不知道,因此呢,今天就来为大家分析分析,现在让我们一起来看看吧!如果解决了您的问题,还望您关注下本站哦,谢谢~

本文目录

  1. 32岁转行参加人工智能培训是否太晚了?
  2. 走向泛化的AI,离真正意义上的“人工智能”还有多远?
  3. 有哪些权威的人工智能机器人大会和AI机器人论坛?
  4. 人工智能、互联网发展及新技术革新,大批传统职业将会被取代,你觉得未来出路在哪?

32岁转行参加人工智能培训是否太晚了?

机器学习是我的主要研究方向之一,同时也在带相关方向的研究生,所以我来回答一下这个问题。

首先,人工智能是比较典型的交叉学科,对于数学、物理、计算机等学科都有一定的要求,所以如果具备扎实的数学基础和计算机基础,32岁是完全可以转向人工智能领域的,比如不少IT行业的研发人员都是在30岁之后转向人工智能领域的。另外,也有不少研发人员在30岁之后通过读博士研究生来深入学习人工智能。

但是,如果基础比较薄弱,选择人工智能领域要慎重,比较现实的选择是从应用的角度出发。未来随着产业结构升级的推进,传统行业会释放出大量的技能型人才岗位,比如机器人的应用与维护等等。未来大量的职场人在产业结构升级的推动下,也需要掌握一定的人工智能知识,以便于在工作中与智能体进行合作。

对于32岁的职场人来说,要想学习人工智能技术,应该注重三方面内容:

第一:与行业相结合。职场人学习人工智能技术最好与自身的行业相结合,未来在智能体全面落地到传统行业时必然会释放出大量的技能型岗位。另外,与行业相结合能够有更为系统和深入的学习过程。

第二:注重实践。人工智能产品目前依然处在行业发展的初期,大量的智能体依然对应用场景有较高的要求,所以在学习人工智能的时候,一定要注重实践。未来智能体的全面落地应用还需要较长一段时间,这个过程也需要产业人的全面参与,以便于打破各种行业壁垒。

第三:紧跟技术发展趋势。目前人工智能技术正处在发展当中,技术的更新迭代速度也比较快,所以就需要学习者不断根据技术发展来更新自身的知识结构。

我从事互联网行业多年,目前也在带计算机专业的研究生,主要的研究方向集中在大数据和人工智能领域,我会陆续写一些关于互联网技术方面的文章,感兴趣的朋友可以关注我,相信一定会有所收获。

如果有互联网、大数据、人工智能等方面的问题,或者是考研方面的问题,都可以在评论区留言!

走向泛化的AI,离真正意义上的“人工智能”还有多远?

针对这个问题,我们邀请了微软亚洲研究院机器学习组的首席研究员刘铁岩博士,为大家带来他眼中人工智能现状,包括面临的挑战与机遇。

微软亚洲研究院机器学习组包含机器学习的各个主要方向,在理论、算法、应用等不同层面推动机器学习领域的学术前沿。该组目前的研究重点为深度学习、增强学习、分布式机器学习和图学习。其研究课题还包括排序学习、计算广告和云定价。在过去的十几年间,该组在顶级国际会议和期刊上发表了大量高质量论文,帮助微软的产品部门解决了很多复杂问题,并向开源社区贡献了

微软分布式机器学习工具包(DMTK)

微软图引擎(GraphEngine)

,LightLDA、

LightGBM等

,并受到广泛关注。该组正在招贤纳士,诚邀各路英雄好汉加盟,共同逐鹿AI天下。

联系我们。

——这里是正式回答的分割线——

要说人工智能发展到了什么程度,我们先来看看人工智能的历史进程。

人工智能从1956年的达特茅斯会议开始,到现在61年的历史,发展过程中风风雨雨,可以看到几起几落,至少我们经历过两个所谓人工智能的冬天。

每一次人工智能的崛起都是因为某种先进的技术发明,而每一次人工智能遇到了它的瓶颈,也都是因为人们对于人工智能技术的期望太高,超出了它技术能达到的水准。所以政府、基金会等撤资,导致了研究人员没有足够的资金去从事研究。

那么今天我们处在一个什么阶段呢?有人说现在是人工智能的春天,有人说是夏天,还有人悲观一点,说是秋天,秋天的意思就是冬天马上就来了。作为人工智能的学者,我们该怎么看待这件事情,我们能做些什么?不管大家怎么预测,至少今天还是一个人工智能的黄金时代。

为什么这么讲呢?接下来先给大家展示一些最近人工智能取得的成果,确实是之前十几年我们完全想不到的。

首先,我们讲人工智能在语音方面的突破,人工智能在语音识别,语音合成上面最近都取得了非常瞩目的结果。2016年10月份由微软美国研究院发布的一个语音识别的最新结果实现了错误率为5.9%的新突破,这是第一次用人工智能技术取得了跟人类似的语音识别的错误率。

其次,在图像方面,人工智能也有很多长足的进步,比如图像识别的ImageNet比赛,用计算机去识别数据集中1000个类别的图像。在2015年,来自微软亚洲研究院的技术——ResNet,获得了2015年ImageNet的冠军,错误率是3.5%,而人的错误率大概是5.1%。所以可看出在特定领域、特定类别下,其实计算机在图像识别上的能力已经超过了人的水平。2016年我们微软亚洲研究院再接再励,在比图像识别更难的一个任务——物体分割上面取得了冠军。

除了语音和图像以外,其实人工智能在自然语言上面也取得了很大的进展。左边这张图描述了各大公司都在不断地提高各自语音机器翻译的水准和技术,右边这张图展示的是去年12月微软发布了MicrosoftTranslator的一个新功能,它支持50多种语言,可以实现多个人多种语言的实时翻译,比如大家每个人可能来自不同的国家,只要拿着手机用这个APP我们就可以互相交流。你说一句话或者输入文字,对方听到/看到的就是他的母语。

前面说的这些语音、图像、语言,听起来还都是一些感知方面的东西。大家也知道,最近这段时间,人工智能在一些传统我们认为可能很难由机器来取得成功的领域也获得了突破。比如左边这张图描述的是用人工智能技术来打游戏,大家可以看到这个敲砖块的游戏,在120分钟训练的时候,人工智能就找到了很有效的得分的途径。当我们继续去训练这个人工智能的机器人,到了240分钟以后,它又达到了那种所谓骨灰级玩家的水准,它发现了一些平时我们自己都玩不出来的窍门。

右边展示的是围棋比赛,大家都知道AlphaGo非常火,使用了深度增强学习的技术,经过了非常长的训练时间,引用了大量数据做self-play,最终是以压倒性的优势,4:1战胜了当时的世界冠军李世石。在去年的IJCAI上面,AlphaGo主要的开发人员做了一个keynote,说自战胜了李世石之后,AlphaGo并没有停下脚步,因为它是一个self-play的process,可以继续训练,只要给他足够的运算时间和样例,它就可以不断地去训练。所以也能理解为什么今年年初Master重新回到大家视野里,可以对围棋高手60连胜,因为这个差距太大了。

这些事情都是以前人们觉得人工智能不可以去企及的领域。但正是因为这些计算机科学家、人工智能科学家不断地去模仿人的决策过程,比如他们训练了valuenetwork,训练了policynetwork,就是怎么样根据现在的棋局去评估胜率,去决定下一步该走什么子,而不是走简单的穷举,用这些valuenetwork来对搜索树进行有效的剪枝,从而在有限的时间内完成一个非常有意义的探索,所有这些都是人工智能技术取得的本质的进展,让我们看到了一些不一样的结果。

说了人工智能的这些辉煌之后,其实有很多问题是需要我们去冷静思考和回答的。

我们的主题是开启智能计算的研究之门,我想从一个研究者的角度跟大家讨论一下我们还能做些什么,甚至是更有意义的是去做些什么。人工智能表面看起来很火,其实如果把这张魔术的台布展开,你就会发现它千疮百孔,各种各样非常基础的问题其实并没有解决,甚至有很多哲学的方法论的东西从我们的角度来看可能也不准确。

面对这样的情况,更有意义的事情可能是冷静下来,去从事一些能够改变人工智能现状以及未来的很本质的基础研究工作,甚至是去反思人工智能发展的路线图,看看我们是不是应该重启一条道路。这些事情才能使得我们不仅仅是随波逐流,不仅仅是变点现,骗点钱,而是在人工智能发展的真正道路上留下我们自己的足迹,过了几十年当大家回忆的时候,另外一个人站在台上讲述人工智能一百年的时候,他会在那个图上标着一个星星,那里面讲的是你的故事。

前面这些人工智能现象的背后是什么?说到技术层面,现在最火的两个词,一个叫DeepLearning(深度学习),一个叫ReinforcementLearning(增强学习)。深度学习是什么?通俗地讲,它就是一个端到端的学习,我们不需要一些featureengineering,而是用一个非常复杂的、容量很大的模型去直接拟合输入输出,让模型自己探索有意义的中间表达。

什么是增强学习?通俗地讲,就是学习机器不断地跟环境做自主的互动,在互动的过程中用长远的收益来指导当下该做什么决策,通过不断的跟环境互动去调整决策的最优性。

之所以现在深度学习和增强学习能够取得很大的成功,背后有一个很大的原因,就是基于巨大的数据和巨大的运算量训练出的拥有巨大容量的模型,所以它们的成功离不开硬件系统,这也是为什么现在GPU这么火,包括云计算、多机协作已经成了我们必不可少的环节。

这是现在人工智能的现状。面对这样的现状,我们是按照大家指定的这条道路去走,多搞几个GPU去训练一些模型跟别人PK,还是反思一下这条路对不对,有没有什么问题,接下来我想跟大家讨论的就是人工智能的诸多问题。我只列了一些其中的代表,但其实问题远远不止这些。

第一件事,现今的人工智能技术,尤其是以深度学习为代表的,需要大量的标注数据,来让我们能够训练一个有效的模型,它不太依赖于人的先验知识,要learningfromscratch。如果想从零开始学习就需要有大量的样本提供规律。比如,图像分类,现在通常会用上千万张图像来训练;语音识别,成千上万小时的有标注的语音数据;机器翻译一般都是在千万量级的双语语对上去做训练,这样的数据之前是不可想象的,但是我们这个时代是大数据时代,所以有了这些数据,就使得深度学习训练成为了可能。但这是不是一剂万能的灵药呢?其实在很多领域里是不可能或者是很难获得类似的数据的。比如医疗上面,很多疑难杂症,全世界也没有几例,那怎么能够对这个类别搜集大数据。所以从这个意义上讲,如果我们能够找到一种方法克服对大的标注数据的需求,我们才能够使得现在的人工智能技术突破目前数据给它划定的边界,才能够深入到更多的领域里面去。

第二个挑战是关于模型大小以及模型训练难度的问题,前面提到了深度神经网络有很多层,而且一般参数都很大,几十亿的参数是家常便饭。面对这样的网络,至少有两个困难,一个是我们经常提到的梯度消减和梯度爆炸的问题,当深层网络有非常多层次的时候,输出层和标签之间运算出来的残差或者是损失函数,是很难有效地传递到底层去的。所以在用这种反向传播训练的时候,底层的网络参数通常不太容易被很有效的训练,表现不好。人们发明了各种各样的手段来解决它,比如加一些skip-levelconnection,像我们微软亚洲研究院发明的ResNet技术就是做这件事情的,还有很多各种各样的技巧。但这些其实都只是去解决问题的技巧,回过头来,原来的这个问题本身是不是必要的,是需要我们反思的。

再有就是模型爆炸。前面说了几十亿的参数是家常便饭,几十亿甚至上百亿个参数意味着什么,意味着模型本身的存储量是非常大的。举一个简单的例子,如果我们用神经网络来做语言模型,给出的训练数据集是Clueweb整个网络上的网页,大概有十亿个网页的量级。这样的一个数据,如果要去用循环神经网络去训练一个语言模型,简单计算一下就会知道,它需要用到的模型的大小大概是80G到100G的大小,听起来好像不太大,但是现在主流的GPU板上的存储24G已经算是高配,换句话说,80G到100G的大小已经远远超过一个GPU卡的容量,那么就一定要做分布式的运算,还要做模型并行,有很多技术难度在里面。即便有一个GPU卡,能够放下这80G或100G的模型,如此大的训练数据过一遍也可能要用上百年的时间,这听起来也相当不靠谱。到底需不需要这么大的模型,有没有必要我们非要把自己放在一个内存也不够用,计算时间也非常长,也不能忍受的境地呢,这个是值得思考的问题。

说到大模型,标注数据很大,那必然要提到分布式运算,分布式运算听起来是一个相对成熟的领域,因为系统领域已经对分布式计算研究了很多年。但是回到我们分布式机器学习这件事情上是有所不同的:这里我们做分布式运算的目的是为了让我们能够用更多的资源来容纳更大的模型,使得运算的时间缩短到能接受的程度,但是我们不想丢掉运算的精度。

举个例子,原来用上百年的时间可以得到一个非常精准的语言模型,现在有100台机器,虽然算的很快,但出来的语言模型不能用了,这件得不偿失。

说到分布式运算有两个主流的方式,一个是同步的并行方式,一个是异步的并行方式。同步的并行方式是什么,就是很多机器都分了一个子任务,大家每计算一步之后要互相等待,交换一下计算的结果,然后再往前走。这个过程能够保证对整个分布式运算的流程是可控的,可以知道发生了什么,在数学上可以做建模,能够在理论上有所保证。但它的问题就是所谓的木桶原理,这个集群里面只要有一台机器很慢,分布式运算就会被这台机器拖垮,就不会得到好的加速比。

所以人们开始做异步的并行方式,异步的意思就是每台机器各自做自己的事情,互相不等待,把当前按照各自的数据训练出来的模型更新推到某一个服务器上,再更新整体模型。但这时候又出现了一个新的问题,就是乱序更新的问题,这个过程是不能被我们原来的数学模型所描述的,违背了优化技术的一些基本假设。比如当我们使用随机梯度下降法的时候,可以证明当时用一个不断减小的学习率时,优化过程是有收敛性的。这是因为我们每一次增加的那个梯度是在上一次计算的模型基础上算出来的梯度。一旦加上去的梯度可能是旧的,不是依据前一个模型算出来的,到底优化过还能不能收敛,就不那么清楚了,所以虽然速度快,精度却可能没有保证。

第四个,我把它叫做调参黑科技,难言之隐。这件事情特别有趣,我前一段时间参加过一个论坛,一位嘉宾的一句话给我印象特别深,他说大家知道为什么现在很多公司都有深度学习实验室吗,以前没听说过有一个叫支持向量机实验室的,为什么?这是因为像SVM这样的技术训练过程非常简单,需要调节的超参数很少,基本上只要按部就班去做,得到的结果都差不多。

但深度学习这件事情,如果不来点调参黑科技,就得不到想要的结果。所谓深度学习实验室,就是一批会调参的人,没有他们深度学习就没那么好用。虽然是句玩笑,但是深度学习力要调的东西确实太多了,比如说训练数据怎么来,怎么选,如果是分布式运算怎么划分,神经网络结构怎么设计,10层、100层还是1000层,各层之间如何连接,模型更新的规则是什么,学习率怎么设,如果是分布式运算各个机器运算出来的结果怎么聚合,怎么得到统一的模型,等等,太多需要调的东西,一个地方调不好,结果可能就大相径庭。这就是为什么很多论文里的结果是不能重现的,不是说论文一定不对,但至少人家没有把怎么调参告诉你,他只告诉了你模型长什么样而已。

下一个挑战,叫做黑箱算法,不明就里。这不仅仅是神经网络的问题,更是统计机器学习多年来一直的顽疾,就是用一个表达能力很强的黑盒子来拟合想要研究的问题,里面参数很多。这样一个复杂的黑盒子去做拟合的时候,结果好,皆大欢喜。如果结果不好,出现了反例,该怎么解决呢,这里面几亿、几十亿个参数,是谁出了问题呢,其实是非常难排错的事情。相反,以前有很多基于逻辑推理的方法,虽然效果没有神经网络好,但是我们知道每一步是为什么做了决策,容易分析、排错。所以最近几年有一个趋势,就是把基于统计学习的方法和基于符号计算的方法进行结合,造出一个灰盒子,它既具备很强的学习能力,又能在很大程度上是可理解、可支配、可调整的。

到现在为止,这几件事都是现在人工智能技术层面的问题。接下来,谈的是更像方法论和哲学的问题,仅为个人的观点,跟大家一起分享。

其中一条,我叫做蛮力解法,舍本逐末。这句话什么意思?刚才我提到过深度学习之所以这么成功,是因为它有一个特别强的表达能力,在历史上人们证明过深层神经网络有universalapproximationtheorem,只要隐结点的数目足够多,任意给一个连续函数,它都可以无限逼近这个函数,换言之,有了很强的表达能力,什么问题都可以学的很好。听起来好像是挺美好的事,但实际上它背后存在一个问题:它拟合的是数据的表象,数据表象可以非常复杂,但是数据背后驱动的规律是不是真的那么复杂呢,如果我们只看到表象不去研究数据产生的本质,很可能你花了很大的力气去拟合,但是浪费了很多时间,得到的结果也不鲁棒。

举个例子,我们发现大自然也好,人类社会也好,其实没有想象的那么复杂,虽然你看到的很多数据很复杂,它们背后的规律可能非常简单。像量子力学有薛定谔方程、量子化学、流体力学、生物遗传学、经济学、社会学也都有类似的简单方程,科学家发现那么纷繁复杂的现象都可以被一个动态系统所刻划,而动态系统背后的规律可能就是一个最高二阶的偏微分方程。大家可以想象,如果不知道这些机理,不对动态系统做建模,只对动态系统的产出数据做建模,就会觉得这个问题非常复杂,要有一个容量非常大的神经网络去逼近这个数据。但反过来,如果目光焦点在这个动态系统身上,可能就两三个参数的一个二阶微分方程就搞定了。

下面也是一个值得思考的问题——动物智能,南辕北辙,虽然前面提到人工智能产生了很多的进步,但其实目前所做的还主要是认知的事情,做一个PatternRecognition,听听声音,看看图像,这是动物也能做的事。今天的人工智能没有回答一个关键的问题,就是动物和人的区别。可能有人会讲,据说猴子的大脑比人的大脑小很多,有可能是体量的不同。但人的祖先跟大猩猩在包容量上应该没有本质的区别,那到底为什么经过漫长的进化,人能成为万物之灵主宰地球了呢?

我自己的观点是因为人类发明了很多动物界没有的机制和规律。比如我们有文字,我们可以把我们对世界的认知,总结出来的规律写下来,把它变成书,变成资料传给我们的下一代。当老一辈的人去世之后,孩子们读读书,就掌握了之前几百年几千年人们对世界的认识。但是老一代大猩猩死掉之后,它的孩子就要从头学起。另外,我们人类有强大的教育体系,人从幼儿园开始,小学,中学,一直进入大学,用了十几年的时间,就把几百年、几千年的知识都掌握在身上了,可以站在巨人的肩膀上继续往前走,这非常了不起。好的老师,会教出好的学生,教学相长,薪火相传。

这些人类的精髓在今天的人工智能技术里面是并没有充分体现,而没有它们我们怎么能指望深度神经网络达到人的智商呢?

前面列了很多方面,是我们对人工智能领域的一些看法,不管是从技术层面,还是方法论层面,都有很多值得进一步挖掘的点,只有这些问题真正解决了,人工智能才可能稳稳妥妥的往前走,而不只是昙花一现。

基于这些考虑,我所在的微软亚洲研究院机器学习组,对研究方向做了一个相应的布局,比如

对偶学习

,它解决的就是没有大规模标注数据的时候,该怎么训练一个神经网络、怎么训练一个增强学习模型。该论文发表在去年的NIPS大会上,获得了很大的反响。

还有,我们叫精深学习(LightLearning),为什么叫Light?前面提到很多模型太大,放不到GPU里,训练时间很长,我们这个研究就是去回答是否真的需要那么大的模型。我们展示了一个很有趣的深度学习算法,叫

LightRNN

,用该技术,只需要用一个非常小的模型在几天之内就可以把整个Clueweb数据学完,而且它得到的结果要比用大模型训练很长时间得到的结果还要好。

并行学习,之前提到并行学习有很多同步异步之间的权衡,我们发明了一个技术,它有异步并行的效率,但是能达到同步并行的精度,中间的技术解决方案其实很简单,在网上也有论文。我们用了泰勒展开,一个非常简单的数学工具,把这两者给结合在一起。

符号学习,就是想去解决黑白之间的那个灰盒子问题。

自主学习,是想去解决深度学习调参的黑科技,既然调参这么复杂,能不能用另外一个人工智能算法来调呢,能不能用增强学习的方法来调呢,所以我们做了一系列的工作来解决怎么去调各种各样的参数,怎么用另外一个机器学习来做这个机器学习。

最后一个方向,我们叫做超人类学习,我们想受大自然的启发,受人类社会发展的启发,去使得我们的人工智能技术接近人类,甚至超过人类,这背后是整个人工智能方法论的变化。

如果大家感兴趣,可以关注我们微软亚洲研究院机器学习组,跟我们共同从事机器学习的基础研究。

有哪些权威的人工智能机器人大会和AI机器人论坛?

以下是转自南大周志华教授的博客上世界顶级人工智能会议总结IJCAI(1+)

AI最好的综合性会议,1969年开始,每两年开一次,奇数年开.因为AI实在太大,所以虽然每届基本上能录100多篇(现在已经到200多篇了),但分到每个领域就没几篇了,像machinelearning、computervision这么大的领域每次大概也就10篇左右,所以难度很大.不过从录用率上来看倒不太低,基本上20%左右,因为内行人都会掂掂分量,没希望的就别浪费reviewer的时间了.最近中国大陆投往国际会议的文章象潮水一样,而且因为国内很少有能自己把关的研究组,所以很多会议都在complain说中国的低质量文章严重妨碍了PC的工作效率.在这种情况下,估计这几年国际会议的录用率都会降下去.另外,以前的IJCAI是没有poster的,03年开始,为了减少被误杀的好人,增加了2页纸的poster.值得一提的是,IJCAI是由貌似一个公司的”IJCAIInc.”主办的(当然实际上并不是公司,实际上是个基金会),每次会议上要发几个奖,其中最重要的两个是IJCAIResearchExcellenceAward和Computer&ThoughtsAward,前者是终身成就奖,每次一个人,基本上是AI的最高奖(有趣的是,以AI为主业拿图灵奖的6位中,有2位还没得到这个奖),后者是奖给35岁以下的=青年科学家,每次一个人.这两个奖的获奖演说是每次IJCAI的一个重头戏.另外,IJCAI的PCmember相当于其他会议的areachair,权力很大,因为是由PCmember去找reviewer来审,而不象一般会议的PCmember其实就是reviewer.为了制约这种权力,IJCAI的审稿程序是每篇文章分配2位PCmember,primaryPCmember去找3位reviewer,secondPCmember找一位.

AAAI(1)

美国人工智能学会AAAI的年会.是一个很好的会议,但其档次不稳定,可以给到1+,也可以给到1-或者2+,总的来说我给它”1″.这是因为它的开法完全受IJCAI制约:每年开,但如果这一年的IJCAI在北美举行,那么就停开.所以,偶数年里因为没有IJCAI,它就是最好的AI综合性会议,但因为号召力毕竟比IJCAI要小一些,特别是欧洲人捧AAAI场的比IJCAI少得多(其实亚洲人也是),所以比IJCAI还是要稍弱一点,基本上在1和1+之间;在奇数年,如果IJCAI不在北美,AAAI自然就变成了比IJCAI低一级的会议(1-或2+),例如2005年既有IJCAI又有AAAI,两个会议就进行了协调,使得IJCAI的录用通知时间比AAAI的deadline早那么几天,这样IJCAI落选的文章可以投往AAAI.在审稿时IJCAI的PCchair也在一直催,说大家一定要快,因为AAAI那边一直在担心IJCAI的录用通知出晚了AAAI就麻烦了.

COLT(1)

这是计算学习理论最好的会议,ACM主办,每年举行.计算学习理论基本上可以看成理论计算机科学和机器学习的交叉,所以这个会被一些人看成是理论计算机科学的会而不是AI的会.我一个朋友用一句话对它进行了精彩的刻画:“一小群数学家在开会”.因为COLT的领域比较小,所以每年会议基本上都是那些人.这里顺便提一件有趣的事,因为最近国内搞的会议太多太滥,而且很多会议都是LNCS/LNAI出论文集,LNCS/LNAI基本上已经被搞臭了,但很不幸的是,LNCS/LNAI中有一些很好的会议,例如COLT.

CVPR(1)

计算机视觉和模式识别方面最好的会议之一,IEEE主办,每年举行.虽然题目上有计算机视觉,但个人认为它的模式识别味道更重一些.事实上它应该是模式识别最好的会议,而在计算机视觉方面,还有ICCV与之相当.IEEE一直有个倾向,要把会办成”盛会”,历史上已经有些会被它从quality很好的会办成”盛会”了.CVPR搞不好也要走这条路.这几年录的文章已经不少了.最近负责CVPR会议的TC的chair发信说,对这个community来说,让好人被误杀比被坏人漏网更糟糕,所以我们是不是要减少好人被误杀的机会啊?所以我估计明年或者后年的CVPR就要扩招了.

ICCV(1)

介绍CVPR的时候说过了,计算机视觉方面最好的会之一.IEEE主办,每年举行.(注:我查了下2011年之前是两年一次,之后是每年举行)

ICML(1)

机器学习方面最好的会议之一.现在是IMLS主办,每年举行.参见关于NIPS的介绍.

NIPS(1)

神经计算方面最好的会议之一,NIPS主办,每年举行.值得注意的是,这个会每年的举办地都是一样的,以前是美国丹佛,现在是加拿大温哥华;而且它是年底开会,会开完后第2年才出论文集,也就是说,NIPS’05的论文集是06年出.会议的名字“AdvancesinNeuralInformationProcessingSystems”,所以,与ICML\ECML这样的”标准的”机器学习会议不同,NIPS里有相当一部分神经科学的内容,和机器学习有一定的距离.但由于会议的主体内容是机器学习,或者说与机器学习关系紧密,所以不少人把NIPS看成是机器学习方面最好的会议之一.这个会议基本上控制在MichaelJordan的徒子徒孙手中,所以对Jordan系的人来说,发NIPS并不是难事,一些未必很强的工作也能发上去,但对这个圈子之外的人来说,想发一篇实在很难,因为留给”外人”的口子很小.所以对Jordan系以外的人来说,发NIPS的难度比ICML更大.换句话说,ICML比较开放,小圈子的影响不象NIPS那么大,所以北美和欧洲人都认,而NIPS则有些人(特别是一些欧洲人,包括一些大家)坚决不投稿.这对会议本身当然并不是好事,但因为Jordan系很强大,所以它似乎也不太care.最近IMLS(国际机器学习学会)改选理事,有资格提名的人包括近三年在ICML\ECML\COLT发过文章的人,NIPS则被排除在外了.无论如何,这是一个非常好的会.(注:MichaelJordan是伯克利大学教授,统计机器学习的老大,大牛中的巨牛)

ACL(1-)

计算语言学/自然语言处理方面最好的会议,ACL(AssociationofComputationalLinguistics)主办,每年开.

KR(1-)

知识表示和推理方面最好的会议之一,实际上也是传统AI(即基于逻辑的AI)最好的会议之一.KRInc.主办,现在是偶数年开.

SIGIR(1-)

信息检索方面最好的会议,ACM主办,每年开.这个会现在小圈子气越来越重.信息检索应该不算AI,不过因为这里面用到机器学习越来越多,最近几年甚至有点机器学习应用会议的味道了,所以把它也列进来.

SIGKDD(1-)

数据挖掘方面最好的会议,ACM主办,每年开.这个会议历史比较短,毕竟,与其他领域相比,数据挖掘还只是个小弟弟甚至小侄儿.在几年前还很难把它列在tier-1里面,一方面是名声远不及其他的topconference响亮,另一方面是相对容易被录用.但现在它被列在tier-1应该是毫无疑问的事情了.

UAI(1-)

名字叫”人工智能中的不确定性”,涉及表示\推理\学习等很多方面,AUAI(AssociationofUAI)主办,每年开.

AAMAS(2+)

agent方面最好的会议.但是现在agent已经是一个一般性的概念,几乎所有AI有关的会议上都有这方面的内容,所以AAMAS下降的趋势非常明显.

ECCV(2+)

计算机视觉方面仅次于ICCV的会议,因为这个领域发展很快,有可能升级到1-去.

ECML(2+)

机器学习方面仅次于ICML的会议,欧洲人极力捧场,一些人认为它已经是1-了.我保守一点,仍然把它放在2+.因为机器学习发展很快,这个会议的reputation上升非常明显.

ICDM(2+)

数据挖掘方面仅次于SIGKDD的会议,目前和SDM相当.这个会只有5年历史,上升速度之快非常惊人.几年前ICDM还比不上PAKDD,现在已经拉开很大距离了.

SDM(2+)

数据挖掘方面仅次于SIGKDD的会议,目前和ICDM相当.SIAM的底子很厚,但在CS里面的影响比ACM和IEEE还是要小,SDM眼看着要被ICDM超过了,但至少目前还是相当的.

ICAPS(2)

人工智能规划方面最好的会议,是由以前的国际和欧洲规划会议合并来的.因为这个领域逐渐变冷清,影响比以前已经小了.

ICCBR(2)

Case-BasedReasoning方面最好的会议.因为领域不太大,而且一直半冷不热,所以总是停留在2上.

COLLING(2)

计算语言学/自然语言处理方面仅次于ACL的会,但与ACL的差距比ICCV-ECCV和ICML-ECML大得多.

ECAI(2)

欧洲的人工智能综合型会议,历史很久,但因为有IJCAI/AAAI压着,很难往上升.

ALT(2-)

有点象COLT的tier-2版,但因为搞计算学习理论的人没多少,做得好的数来数去就那么些group,基本上到COLT去了,所以ALT里面有不少并非计算学习理论的内容.

EMNLP(2-)

计算语言学/自然语言处理方面一个不错的会.有些人认为与COLLING相当,但我觉得它还是要弱一点.

ILP(2-)

归纳逻辑程序设计方面最好的会议.但因为很多其他会议里都有ILP方面的内容,所以它只能保住2-的位置了.

PKDD(2-)

欧洲的数据挖掘会议,目前在数据挖掘会议里面排第4.欧洲人很想把它抬起来,所以这些年一直和ECML一起捆绑着开,希望能借ECML把它带起来.但因为ICDM和SDM,这已经不太可能了.所以今年的PKDD和ECML虽然还是一起开,但已经独立审稿了(以前是可以同时投两个会,作者可以声明优先被哪个会考虑,如果ECML中不了还可以被PKDD接受).

人工智能、互联网发展及新技术革新,大批传统职业将会被取代,你觉得未来出路在哪?

多元合创感谢邀请,司认为这是必然趋势。

随着AI、互联网及新技术的发展,传统的,特别是工作处于较为基础行业的重复性劳动或者单纯的体力劳动的职业,将会优先得到取代。

这里我们所要了解的是AI人工智能是程序性质的东西,行为方式也依照程序的方法,相较传统程序肯定要更加灵活一点,也因此是可以适应现阶段很多的工作。但是比如更高级工作,比如开发、比如研究、或是设计等等,AI所扮演的角色多是辅助,而不是取代,因为人类的创造力目前AI还无法媲美,在需要创造力,需要思维,需要认真思考的地方,AI目前只能作为人类的帮手存在。

但毋庸置疑的是人工智能、互联网发展及新技术革新的出现,我们需要从现在开始利用网络信息时代提供的便利,赶快学习,成为最早一批赶上技术革新红利的一批,哪怕是赶上一辆小破车,也会成为最先获得时代发展带来奖励的人,无论做什么都会抢占到改革带来的红利。

好了,关于人工智能改变未来论坛和人工智能改变未来申论的问题到这里结束啦,希望可以解决您的问题哈!

人工智能改变未来论坛,人工智能改变未来申论文档下载: PDF DOC TXT