各位老铁们好,相信很多人对Google 人工智能专家都不是特别的了解,因此呢,今天就来为大家分享下关于Google 人工智能专家以及google的人工智能的问题知识,还望可以帮助大家,解决大家的一些困惑,下面一起来看看吧!
本文目录
Google的人工智能可以预测人类喜好吗?
据外媒报道,Google的人工智能研究人员最近展示了一种“教”计算机的新方法,以了解为什么一些图像比其他图像更美观。传统上,机器使用传统编目方法对图像进行分类。新的研究表明,人工智能现在可以评价图像质量,不管其类别如何。
这个称为神经系统图像评估(NIMA)的过程使用深度学习来训练卷积神经网络(CNN)来预测对图像的评价。
根据研究人员发表的一份白皮书:
我们的方法不同于其他方法,因为我们使用卷积神经网络预测人类意见分数的分布。我们得到的网络不仅可以用来可靠地评价图像,并与人类感知高度相关,而且还可以帮助适应和优化摄影中的照片编辑/增强算法。
NIMA模式避开了传统的方法,并以10分制评分。机器检查图像的特定像素及其整体美学。然后确定人们选择评分的可能性。基本上,AI试图猜测一个人是否会喜欢这张图片。这可能使计算机成为更好的“艺术家”或“策展人”。这个过程可能会被用来批量查找最佳的图像。
如果您是一种能够一次拍摄20或30张图像的人,以确保您获得最佳图像,这可以为您节省大量空间。假设,只需轻点一下按钮,AI就可以浏览存储器中的所有图像,并确定哪些图像是相似的,然后删除除最佳图像外的所有图像。
根据谷歌研究博客最近的一篇文章,NIMA也可以用来优化图像设置,以产生完美的效果:
我们观察到基准美学评分可以通过NIMA评分指导的对比调整来改善。因此,我们的模型能够引导一个CNN过滤器,以找到其参数的美观最佳设置,例如亮度,高光和阴影。
谷歌AI工作引发争议,可否引入外部专家并提供指导?
周二的时候,谷歌表示成立了一个外部咨询委员会,旨在为其人工智能技术的发展提供指导。
此前,该公司的一些AI工作引发了巨大的争议,尤其是面部识别技术的应用、以及机器学习的公平性等问题。而新成立的外部咨询委员会(ATEAC)将围绕此类主题,向该公司提供适当的建议。
【图自:Google,viaCnet】
在去年的一篇博客文章中,谷歌首席执行官SundarPichai向外界分享了公司的AI原则,这是一系列有关人工智能开发和应用的道德准则。
至于新成立的ATEAC,谷歌全球事务高级副总裁KentWalker表示:“该委员会旨在补充公司内部的治理结构和流程,帮助我们贯彻实施这些原则”。
【首届ATEAC成员,图自:GoogleBlog】
据悉,首届理事会成员包括行为经济学家兼隐私研究员AlessandroAcquisti、自然语言处理研究员DeKai、以及自动化初创企业Trumbull的首席执行官DyanGibbens。
上述成员将至少为谷歌提供一年的指导,并计划在下月举行四次会议,之后谷歌会发布一份总结报告。Walker称:“我们希望这项努力能够为自己的工作和更广泛的技术部门提供信息。除了咨询ATEAC的专家们,我们还将继续交换意见、并收集来自全球合作伙伴和组织的反馈意见”。
谷歌为何决定撤销人工智能道德委员会?
本周,Vox和其他一些媒体报道称,由于几位委员会成员饱受争议,谷歌新成立的人工智能道德委员会已土崩瓦解。谷歌周四告诉Vox,该公司正在撤销这个道德委员会。
委员会成立的时间还不到一周。成立的目的是为了指导谷歌进行“负责任地人工智能开发”。这个委员会原计划包括八名成员,并在2019年期间举行四次会议,以考虑对谷歌的人工智能计划的担忧。这些问题包括人工智能如何造就威权国家,人工智能算法如何产生不同的结果,是否可以用于人工智能的军事应用等等。但这个委员会从一开始就引发争议。
数千名谷歌员工签署了一份请愿书,要求撤销一位董事会成员——传统基金会主席KayColeJames的成员职务,因其涉嫌提出反跨性别意见并对气候变化持怀疑态度。与此同时,无人机公司首席执行官DyanGibbens的加入使该公司的人工智能用于军事应用,重新开放了该公司的旧部门。
董事会成员AlessandroAcquisti辞职。另一位成员JoannaBryson为自己不辞职的决定辩护:“不管你信不信,我对其中一个人(James)更加了解。”其他董事会成员被要求证明他们自己决定继续留下的理由。
周四下午,一位谷歌发言人告诉Vox,该公司已决定完全解散名为AdvancedTechnologyExternalAdvisoryCouncil(ATEAC)的专家组。以下是该公司的声明:
很明显,在当前环境中,ATEAC无法正常运行。所以我们结束了委员会。我们将继续负责我们在AI提出的重要问题上的工作,并将找到不同的方式来获得有关这些主题的外部意见。
该小组应该为谷歌工程师正在进行的人工智能道德工作添加外部观点,所有这些都将继续下去。
当隐私研究员AlessandroAcquisti在Twitter上宣布他正在辞职时,董事会的信誉首先受到了冲击,他说,“虽然我致力于研究解决人工智能中公平、权利和包容的关键道德问题,但我不愿意我相信这是我参与这项重要工作的合适论坛。”
与此同时,要求撤销KayColesJames职务的请愿书迄今已获得来自谷歌员工的2300多个签名。
随着对董事会的愤怒愈演愈烈,董事会成员被引入了关于他们为什么出任董事会的长期道德辩论,这不是谷歌所希望的。在Facebook上,牛津大学道德哲学家董事会成员LucianoFloridi曾表示:
向(KayColesJames)咨询建议是一个严重的错误,并发出关于整个ATEAC项目的性质和目标的错误信息。从道德角度来看,谷歌错误判断在更广泛的背景下获得代表性观点意味着什么。如果ColesJames没有辞职,我希望她这样做,如果Google没有撤销她的职务(https://medium.com/.../googlers-against-transphobia-and-hate-...),就像我个人一样建议,问题变成:鉴于这个严重的错误,采取什么样的道德立场?
谷歌的许多人工智能研究人员都积极致力于让人工智能更公平,更透明。谷歌发言人曾指出一些文件据称反映了谷歌的人工智能道德方法,从一份详细的使命宣言中概述了他们今年年初不会追求的各种研究,以及他们的人工智能到目前为止是否有效是生产社会公益,以对AI治理状态的详细文件。
理想情况下,外部小组将补充这项工作,增加问责制,并帮助确保每个谷歌人工智能项目都经过适当的审查。
谷歌AI帮NASA发现第二个"太阳系",人工智能是否会取代天文学家?
如果单纯的讨论人工智能是否会取代天文学家还是可以的。如果从NASA使用谷歌的技术发现第二个“太阳系”,进而推断人工智能会取代天文学家,目前来看并不现实。
相关报道对于谷歌AI的使用情况已经非常明确,
谷歌在电话会议中解释,在研究开普勒望远镜四年来收集的数据时,谷歌使用的识别工具实际上与识别照片中猫和狗的工具类似。所以,把这次帮助NASA的技术看成和人脸识别类似的技术即可。
这个事情的出现反映出机器学习技术正在深入到各行各业,并且能够带来好处。
说回天文学家被取代的问题。
亚里士多德曾经认为地球位于宇宙中心,人类则住在半球型的世界中心,也就是知名的地心说。
后来出现了一个叫做哥白尼的人,他觉得地球是圆的,在转,绕着太阳转,太阳不动,也就是日心说。
现在来看肯定是哥白尼的观点相对准确一些,不过在当时的环境下,哥白尼的日心说被认知可不是一件容易的事情。
多亏一个叫做伽利略的人,发明了望远镜,这才通过更加科学的手段证明了日心说。
哥白尼被誉为天文学家,原因当然可以是其提出了日心说,不过更为关键的,其能够在地心说普遍被认可的背景下提出日心说,并且坚持自身的观点。这种哥白尼内在的思维方式和动机才是真正让人佩服的地方,哥白尼具有创新的能力。
对比目前NASA使用的AI,其并没有发现新的关于天文学的理论,也没有突破开普勒望远镜的限制。NASA使用的AI更像一个工具,没有类似哥白尼的创新能力。
不过人工智能的发展还是蛮快的,未来能够做出巨大创新的AI很有可能出现,搞不好可以做出一些突破性的观测工具、天文规律。在目前科学理论的基础上,新的观点相对更容易被接收,如果能够被科学证明,那么可以认为那个AI在一定程度上取代天文学家。
无论是地心说、日心说,还是太阳系,这些叫法都是建立在人类的语言和逻辑之上。智力水平超过人类的人工智能未必会有遵循这样的逻辑和语言,反过来讲,如果人工智能遵循这样的逻辑,未必就能够做出比人更好的成就。人工智能如果取代天文学家其实是一件挺可怕的事情。
好了,关于Google 人工智能专家和google的人工智能的问题到这里结束啦,希望可以解决您的问题哈!