圆桌|如何构建下一代可信、可解释、可推理、可决策的AI

什么是可信人工智能?为什么其在当下值得被讨论?如何构建可信人工智能?下一代可信人工智能的机遇、挑战与实现路径分别是什么?
近日,在杭州举行的2021全球人工智能技术大会可信AI专题论坛上以此为议题进行了讨论。
对于可信人工智能的定义,科技部高技术研究发展中心研究员嵇智源在致辞中作了通俗解释:可信AI,就是确保AI的公平性、可解释性、健壮性和透明性,确保算法可被人信任。
要实现可信AI,同盾科技人工智能研究院院长、中科院医学所首席教授李晓林认为,“数据安全、数据隐私保护等是必须解决的核心问题。”
美国加州大学伯克利分校教授宋晓冬对当下数据处理的困境做了详细阐述:
一方面,匿名化处理无法保护用户和数据隐私。宋晓冬以《纽约时报》的案例举例,《纽约时报》能够追踪与前总统特朗普在一起的特工的位置,数据来自匿名的手机位置数据集。
另一方面,如何处理敏感数据以及被数据泄漏问题持续困扰着企业,同时,遵守新的隐私法规,变得越来越麻烦和昂贵,而且许多有价值的数据被锁定,困在数据孤岛中。
如何建立可靠的数据经济?宋晓东提出,“我们需要技术和非技术解决方案的结合,特别是我们需要有三个组件:技术解决方案,激励模型和法律框架。”
在技术方面,宋晓东提出需要解决的两个主要问题:一是保护使用中的数据,那么我们需要能够无须复制原始数据就可以使用的数据。其次则需要在不泄漏敏感信息的前提下计算输出。
“联邦学习是一种方法,利用安全计算和差分隐私,使数据能够保留在用户的设备或者机器上,并使不同的实体能够一起协作,训练模型并以分布式计算,进行分析,最后形成分布式账本。
我相信,十年后数据可信与共享将成为利用不同数据源的主要方式,实现数据确权,并使数据所有者受益,通过这些新形式的数据信任和数据共享将在10年内创造巨大的经济价值,”宋晓东认为。
同盾科技人工智能研究院院长、中科院医学所首席教授李晓林在论坛现场具体阐述了建立在联邦学习基础上的“知识联邦”。“联邦学习”(Federated Learning)算法框架由谷歌公司提出,是其针对个人终端设备数据孤岛和数据隐私的两难问题提出的解决办法。而AAAI Fellow杨强教授与微众**随后提出了基于“联邦学习”(Federated Learning)的系统性的通用解决方案,可以解决个人(2C)和公司间(2B)联合建模的问题。其目的是在满足数据隐私、安全和监管要求的前提下,设计一个机器学习框架,让人工智能系统能够更加高效、准确的共同使用各自的数据。
李晓林进一步提出“知识联邦”,将认知和知识引入隐私计算范畴,包括信息层、模型层、认知层和知识层,目标是实现下一代可信、可解释、可推理、可决策的人工智能。
知识联邦通过将数据转化成信息、模型、认知和知识,利用密码学技术,满足数据“可用不可见”,打破数据孤岛;同时,为了保障联邦生态构建过程可知、数据安全交换等核心问题,再通过安全的数据交换协议(Federated Learning EXchange,FLEX)来使用数据。他将FLEX.USE比喻为可信AI时代的HTTP.GET,合规安全使用数据而不改变数据的所有权。
李晓林在接受澎湃在内的媒体采访时以一个例子作阐释,在个人信用风险评估时,可能会需要个人的收入情况、消费能力、贷款情况以及其它信息,而这些信息可能分布在不同的机构中。如果我们想得到信用风险评估这个知识,就需要联合相关机构参与任务,建立相应的任务联盟。尤其是中小微企业,自由数据量少,需要借助外部数据才能开展业务,通过联邦平台建立小范围的任务联盟就可以有效解决这个难题。
具体来说,数据不出本地。在加密保护下,其只是在中间的梯度变化和一些决策树的分杈点进行交换,保证了原始数据不出域,实现数据可用不可见。
李晓林表示,“我们观察到人工智能各个阶段的飞跃间隔大约30年。我们目前所处的时代AI已拥有强大的感知能力,以深度学习和强化学习为代表,AI获得了及其广泛的应用和社会影响力,我认为在下一代AI时代,知识和智能决策将成为核心,知识联邦一定会扮演重要角色。”
中国科学院院士谭蔚泓则从智慧医疗的视角提出分子大脑,“分子大脑,即利用高分量的测量技术,结合多个识别疾病标志物的分子探针,对病人进行多到300个分子探针分子特征验证比和定量测定,然后用人工智能帮助解析数据,把有益的信息从杂乱无章的大量的信息里面解析出来。这在上海交通大学的仁济医院已有落地。
谭蔚泓提出,分子大脑必将成为下一代的疾病精准诊断的变更性的技术,而这必须有数据隐私保护和可信AI的成熟技术作基础。(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)
热门手游下载
下载排行榜