推动人工智能技术黑箱趋于透明,全球持续探索人工智能立法
人工智能作为新一轮科技革命和产业变革的推动透明探索重要量,广泛应用于医疗、人工人工金融、智能智交通等领域,技术带来了巨大的黑箱经济效益与社会效益。
然而随着人工智能应用的趋于全球深入,其自身的持续技术缺陷以及带来的决策偏见、使用安全等问题引发了信任危机,立法可信成为关注焦点。推动透明探索
9月1日下午,人工人工世界人工智能大会可信AI论坛在徐汇滨江举行,智能智并发布了《可信人工智能产业生态发展报告2022》(以下简称《报告》)。技术
据IDC相关数据,黑箱2021年全球人工智能产业规模为3619亿美元,趋于全球并预计在2022年同比增长19.6%,持续超4300亿美元。
《报告》指出,技术上,人工智能算法脆弱,易受攻击;黑箱模型导致算法不透明,使得人们无法直观理解决策背后的原因。
应用上,人工智能训练数据中存在的偏见歧视导致公平性缺失;以人脸识别技术为代表的生物识别信息的频繁使用增加了隐私泄露的可能。
伦理上,人工智能系统决策复杂,难以界定责任主体,带来伦理安全问题。
构建可信人工智能成为缓解和消除这些担忧的必然选择。《报告》显示,学术界率先推开了可信人工智能的大门,在可信人工智能概念提出后,逐步推广可信共识。
2020年起,可信人工智能领域研究论文数量飞速增长,围绕鲁棒性、可解释性、隐私保护等方面的技术研究持续升温。可信已经成为人工智能产业发展必备要素,驱动人工智能规范发展。
人工智能只有可信可靠,才能获得可持续性发展。对用户而言,可信要素将推动人工智能技术黑箱趋于透明,增强用户对人工智能的信任感。对开发者而言,可解释的人工智能有助于全生命周期的企业管理,有助于履行内部报告和外部监管合规义务,确保应用和服务在最大程度上减少偏见。
报告显示,在可信人工智能实践上,世界各国高度重视,在政策、技术、标准的研究制定上均采取了相关措施。
政策发布上,全球持续探索人工智能立法,推动可信人工智能范式法制化。
技术研究上,提升人工智能系统稳定性、隐私保护技术占据可信人工智能技术研究主流,可解释性、公平性等技术研究紧随其后。
当前以对抗训练、梯度屏蔽为代表的人工智能系统稳定性技术稳步发展;以同态加密、多方安全计算、差分隐私等为代表的隐私安全技术发展迅速;可解释性增强技术研究当前仍处于初期阶段,科技巨头推出多个AI可解释性工具及服务;提升人工智能公平性主流方法为通过构建完整异构数据集及引入公平决策量化指标算法,以减轻决策偏差。
报告发布结束后,为推动企业实现业务全链路可信,护航可信AI走向工业级落地,基于大规模实践经验,联合清华大学和中国信通院云计算与大数据研究所共研一款适配工业级应用的AI安全检测平台,正式发布向行业开放使用。
相关文章:
- 上市银行“含AI率”提升 科技赋能持续加码
- 上海卫健委:仍存一定流动性风险,线上购物要选正规平台、网店
- 北京:14日和15日继续组织区域核酸筛查
- 台媒又炒美助理国务卿称美支持台出席WHA,网友讽刺:空心菜明年再来排队吧
- 广发有色金属日评:铜现货升水坚挺,精废价差收窄,区间空单逢低减持
- 管涛:俄乌冲突对未来一段时间的中国经济也可能会产生负的溢出效应
- 快讯:汽车整车板块快速拉升 金龙汽车、中通客车双双涨停
- 建艺集团狂收9连板股东计划清仓式减持 主营业务新订单降逾74%净资产仅1.4亿
- 假冒“连花”系列药品在市场上出现,以岭药业:保留追责权
- 新增1站!北京地铁90余站封闭管理,涉18条线路,一图速览