源开放 旷视Objects365数据集及联合实验室落地

发布时间: 2019-04-20 14:46:49

  随着商用的推动以及众多AI企业对应用场景的不断深入,技术与应用之间的“嫌隙”无法避免地被愈发放大。为此,业界纷纷呼吁人工智能领域应强化开源开放,来持续推动行业健康发展。此前,十三届人大也指出,中国新一代人工智能发展规划,第一步就是启动开源平台。开源开放将对人工智能产业生态建设与社会发展产生双向促进作用,重要性不言而喻。

  在此背景下,旷视一直在积极促进人工智能领域的开源开放、协同创新。日前,旷视就携手北京智源人工智能研究院宣布成立“北京智源 - 旷视智能模型设计与图像感知联合实验室”(以下简称“智源-旷视联合实验室”),旨在推动整个行业协同创新发展,建设共性技术开放创新平台,构建自主可控产业生态。

  “智源-旷视联合实验室”将基于旷视在计算机视觉技术和应用的深厚积累,建设一体化的数据共享、模型设计与场景测试的开放创新平台,突破大数据背景下模型架构设计、优化和部署等技术难题,探索突破视觉系统性能极限和模型设计及场景测试的自动化,推进大数据背景下模型架构设计、优化和部署等方面的研究。

  同时,据旷视首席科学家兼研究院院长孙剑介绍,实验室平台建成后,将面向高校院所、创业企业等创新创业主体开放,致力推动图像感知与计算领域的协同创新。“通过以上措施,实验室将被打造成为一个开放、贴近实际场景的计算机视觉算法研究实验平台,形成涵盖数据、平台、场景的完整闭环,有利于打造我国自主可控的技术和产业生态,共同助力我国图像感知和计算领域的技术及应用达到国际先进水平。”孙剑表示。

  除了构建联合实验室,旷视还发布了全球最大物体检测数据集——旷视Objects365。以此来构建高质量AI训练资源库推动通用物体检测技术的发展,为中国人工智能计算机视觉技术的发展与应用注入新活力和新动力。

  据介绍,Objects365是新一代通用物体检测数据集,具有规模大、质量高、泛化能力强的特点。在规模方面,Objects365定义了生活中常见的365个类别,第一批将开放63万张图像,拥有高达1000万的标注框(每张图像的平均标注框为 15.8个),而这个数量级分别是目前全球最权威的物体检测数据集——MS COCO的5倍和11倍。

  同时,旷视Objects365拥有一套严谨、科学的标注流程,以保证每一张图片的标注质量。在使用过程中,它可以轻松超越现有算法的精度,显著加速收敛过程,表现出极强的泛化能力。毫无疑问,旷视Objects365的发布,为研究社区可在全新的 Benchmark 上开展更多实验提供了可能,这势必会推动通用物体检测技术发展新一波浪潮的到来。

  事实上,作为中国人工智能领军企业,旷视除了在数据、基础平台搭建上强调开源开放外,在技术应用层面,旷视也始终强调行业的协同与合作。为更好地做到协同与合作,旷视在今年年初推出了业内首个AIoT操作系统——旷视河图(HETU)。旷视河图是一套致力于机器人与物流、制造业务快速集成,一站式解决规划、仿真、实施、运营全流程的操作系统。其主要特性则是生态连接、协同智能和数字孪生。

  不仅如此,旷视还发起了“旷视河图合作伙伴计划”,呼吁产业上下游的设备厂商、系统厂商、集成商和运营商伙伴一同加入到旷视河图的开发和建设中来,形成利益共同体,实现合作共赢。未来,旷视将至少投入20亿,与生态伙伴一起打造价值务实的整体解决方案,共同探索边界持续验证价值,进而加速机器人场景落地,真正为用户降低成本,创造价值。

  可以说,让人工智能创造更大价值,推动行业应用的变革与创新是旷视持续推动人工智能开源开放的动力。如今,作为国内成功推进开源工作的典范之一,已有越来越多的开发者和合作伙伴受益于开源开放的旷视AI技术,这将产生巨大合力,持续推进中国人工智能产业健康发展。

人工智能在张江系列报道之三:场景“宝藏”的未来构图
  纽劢的无人车,阿尔飞思的智能垃圾桶,英飞凌的智能路灯,思岚的安防机器人已经在人工智能岛上进行了场景应用。供图 申海

  中新网上海4月18日电 (郁玫 樊中华)清晨,几百盏路灯自动熄灭光芒,在阳光下自行蓄电,巡检无人机在天空盘旋;宽阔的道路上,样式不同的机器人往来清扫,无人接驳车从旁边安静驶过;绿地花池中,智能灌溉龙头悄然伸出地面,喷洒水雾;一名行人走过智能垃圾桶,桶盖感应打开,塑料瓶扔进去,被自动分拣为可回收类。

  这可不是什么科幻片里的片段。作为张江人工智能岛上的寻常景,这一副由多个人工智能场景组成的画面,是张江人工智能创新场景实验的有机组成部分。

  为解决人工智能企业寻找应用场景难的问题,弥合从技术到产业化的“最后一公里”,张江将占地6.6万平方米的人工智能岛整体设计开放为一座场景“宝藏”。

  在这座以“智能”为名的岛屿上发掘场景,开发和测试自己的核心产品,已经成为张江诸多人工智能企业近来乐此不疲的事情。

  “人工智能技术必须能在真实环境中解决问题,必须去找到一个让技术发挥作用的场景,这个技术才可以做成产品去推广,从而具有商业价值。”云从科技副总裁张立在阐述场景的重要性时这样表示。

  云从科技是国内人脸识别领域的独角兽,张立坦言创业初期恰逢2015年3.15曝光银行金融业务办理程序在安全上存在问题,如何能快速进行人证合一身份验证成为行业的迫切需求,云从借此场景果断切入金融领域,在市场站稳脚跟。

  人工智能发展至今,在技术与成本的条件相对成熟后,场景被认为是人工智能产业化的核心所在。寻找和创新场景,则是每一个人工智能企业在发展中面临的最大挑战。

  作为上海最大的人工智能企业聚集地,张江首先洞察了这一需求。因此,全国首个“人工智能岛”的概念甫一成型,便面向强烈的场景需求进行了顶层设计,使其在成为人工智能企业集聚之地的同时,更成为一个全方位的场景宝藏,供企业进行产品测试、实验和真正的应用。

  “我们要通过巨大的城市场景的开放,让企业研发的技术能够就近得到转化,”张江集团董事长袁涛告诉中新网记者,“我们有供企业展示产品的展厅,我们这个岛本身也是个大展厅,人工智能岛有两层含义,一是大家都在做人工智能领域的事,二是岛本身要用大家的人工智能产品给武装起来。”

  2018年12月,上海市经信委印发的《上海市推进“智城计划”实施方案》,指出要通过城市级应用场景构建,打造人工智能创新应用标杆,带动人工智能产业发展。在次日首发的上海10大人工智能应用场景中,张江人工智能岛成功入选上海市首批人工智能应用场景实施载体。

  魔视智能CEO虞正华认为,上海在人工智能方面的优势就在于有足够丰富的应用场景,从金融、医疗、安保到出行、生产、服务,千差万别的场景就催生了海量的需求,在场景的支撑下,数据的获得会更迅速,基于大数据的产品深度学习和训练成为可能。

  魔视智能是全国首家基于深度学习开发ADAS(高级驾驶辅助系统)并实现前装量产的企业,绘制自动驾驶倚赖的高精度地图,需要的正是上万个不同的道路场景。

  从发现场景到正式应用,产品尚需要走过不断调试实验的漫长之路,寻求低成本的、真实可供测试的场景来优化、迭代产品,同样是企业面临的难题。

  “我们作为‘岛主’,有责任去帮助企业对接场景,引进场景,让他们在场景中实现技术的应用和发展,”袁涛表示,“现在,有源源不断企业来找我们想要给这个岛上增加点什么智能设施。”

  袁涛告诉中新网记者,在张江的未来规划中,张江科学城95平方公里,以及城市副中心将建成的CBD,均将开放场景,为张江的人工智能企业提供全方位的演练展示之地,在那里,人们将真正看到“未来已来”。(完)

谷歌AI道德委员会解散如何让人工智能明辨是非?
  据外媒报道,3月26日,Google全球事务高级副总裁Kent Walker在Google博客中发文宣布,为了贯彻落实Google AI七原则,完善相关的内部治理结构和流程,成立ATEAC委员会,用来处理人工智能中的棘手问题。

  委员会设置8名成员,有经济学家、有心理学家、有美国前副国务卿,但成立不到一周,一位专家自愿退出。在本周,谷歌员工发起了一项请愿,要求该公司撤换另一名委员会成员,因为他反对保障同性恋和变性人同等权利的法律。

  为了回应抗议,谷歌决定完全解散这个名为先进技术外部咨询委员会(ATEAC)的团队,并在声明中称:“很明显,在当前的环境中,ATEAC不能按我们所希望的方式运行,所以我们要解散它,并回到原计划上来,我们将继续在AI带来的重要问题上进行我们的工作,并将找到不同的方式来获取外部对这些问题的意见。”

  虽然谷歌的AI道德委员会成立一周就土崩瓦解,但这并不意味着人工智能道德委员会的失败和无意义。实际上,人工智能道德委员会的存在尤为必要。AI伦理问题究竟何去何从依然值得深思。

  早到艾萨克·阿西莫夫(Isaac Asimov)提出“机器人三定律”,再到《西部世界》、《机械姬》、《黑客帝国》、《终结者》等影视剧都对人工智能伦理问题做出了思考,人工智能可以解放人类劳动力,但也有可能损害人类的利益,将大众引向深渊。

  人工智能的算法来自于数据,当数据里带有潜在的价值观倾向,隐含着偏见等问题,被系统学习吸收,谁来维持民众的共识,保证社会的公平?当机器自我进化拥有了自主意识,脱离人的控制,人类作为其生产创作者,是否依旧能够稳稳地掌握全局?当不成熟的人工智能技术陷入异常,造成失误,甚至非法入侵而伤害人类,谁该为此承担责任?

  像谷歌自动驾驶汽车造成人员伤亡、机器人伤人事件、保险公司利用脸书数据预测事故发生率涉嫌存在偏见等都现实中的失败案例,也是人工智能存在伦理和道德风险的例证。

  面对人工智能引发的伦理问题,科技巨头们纷纷成立伦理委员会应对挑战。2016年,亚马逊、微软、谷歌、IBM和Facebook联合成立了一家非营利性的人工智能合作组织(Partnership on AI),而苹果于2017年1月加入该组织。

  在科技巨头们的共识里,与其靠外界强加约束AI发展,不如先成立伦理委员会自主监督。AI道德委员会是一种监督保障,更是风险评估标准。它能够帮助人工智能公司做出道德决策,使社会受益。

  就像麻省理工学院情感计算研究组主任罗萨琳德·皮卡德教授所言,“机器越自由,就越需要道德准则。”而学者们也给出了让人工智能规避风险的新思考。

  《道德机器:如何让机器人明辨是非》中美国认知科学哲学家科林·艾伦和技术伦理专家温德尔·瓦拉赫强调了两个维度——针对道德相关事实的自主性维度和敏感性维度,给出了一个关于日趋复杂的AMAs(人工道德智能体)轨迹的理解框架,以“评估它们面对的选项的伦理可接受性”。他们认为“自上而下”和“自下而上”相混合的模式是机器道德发展模式的最佳选择。即将从数据当中学习经验的自下向上和用确定的规则进行预编程自上向下结合起来。

  美国机器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,认为“友善”从设计伊始就应当被注入机器的智能系统中。

  2017年12月12日,电气电子工程师学会(IEEE)发布了《人工智能设计的伦理准则》(第2版),提出合乎伦理地设计、开发和应用人工智能技术应该遵循以下一般原则:人权——确保它们不侵犯国际公认的人权;福祉——在它们的设计和使用中优先考虑人类福祉的指标;问责——确保它们的设计者和操作者负责任且可问责;透明——确保它们以透明的方式运行。

  各国的学者、专家不断提出关于人工智能的新伦理原则,但以人为本的理念始不曾改变。欧盟在近日也提交了他们对于人工智能伦理的答卷。

  4月9日,欧盟发布了AI伦理指导方针,作为公司和政府机构未来开发AI时应遵循7大原则,呼吁“值得信赖的人工智能”。“可信赖 AI”是对人工智能时代的道德重建,为AI的发展指明了一条合乎伦理的方向。

  欧盟 AI 道德准则草案指出,可信赖的 AI 有两个组成要素:一、应尊重基本权利,适用法规、核心原则和价值观,以确保“道德目的”(ethical purpose),二、兼具技术鲁棒性(robust)和可靠性,因为即使有良好的意图,缺乏技术掌握也会造成无意的伤害。

  人类作用和监督:人工智能不应该践踏人类的自主性。人们不应该被AI系统操纵或胁迫,而且,人类应该能够干预或监督软件做出的每一个决定。

  技术的稳健性和安全性:人工智能应该是安全的、准确的。它不应该易于受到外部攻击(例如对抗性实例)的影响,而且,应该是相当可靠的。

  隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。

  透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应“由人类理解和跟踪”。换句话说,操作员应该能够解释AI系统所做的决定。

  多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样地,系统不应该在这些方面存在偏见。

  环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。

  问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。

  有数据显示,美国人工智能企业数量2039家位列全球第一,中国(不含港澳台地区)有1040家,占全球人工智能企业数的一半以上,《2019年全球AI人才报告》则展示了全球36524位顶尖AI人才,一半以上在中美。中国与美国在AI领域的人才和企业上占尽了优势,可谓你追我赶,难分高低,欧盟从伦理角度切入,率先对人工智能的发展伦理做出规范,或许不失为一大良策。

相关热词搜索: