很棒的AI法规,原则和准则 |  (又名负责任地写AI) |
概述
随着AI系统在社会中变得越来越普遍,我们面临更大,更严格的社会挑战。鉴于以前没有面临许多这些挑战,从业人员将面临需要处理艰难的道德和社会问题的场景。
已经发布了大量内容,试图通过“原则”,“道德框架”,“清单”及其他内容来解决这些问题。但是,浏览大量资源并不容易。
该存储库旨在通过绘制在人工智能周围制定的指南,原则,伦理,标准和法规的生态系统来简化这一点。
快速链接到此页面中的各个部分
按经济地区进行国家监管
| | |
---|
奥地利?? | 巴西 ?? | 加拿大 ?? |
以色列 ?? | 欧洲联盟 ?? | 印度 ?? |
墨西哥 ?? | 新加坡 ?? | 阿拉伯联合酋长国? |
美国 ?? | 英国 ?? | |
其他部分
| | |
---|
?高级框架和原则 | ?过程和清单 | ?互动和实用工具 |
行业标准计划 | 在线课程 | ?研究和行业新闻通讯 |
其他相关资源
您可以加入机器学习工程师通讯。您将收到有关机器学习专业人员策划的开源框架,教程和文章的更新。 |  |
法规和政策
奥地利
- 人工智能使命奥地利2030年 - 塑造奥地利人工智能的未来。奥地利创新和技术部发表了对AI的愿景,直到2030年。
加拿大
- 人工智能与数据法(AIDA) - 制定《消费者隐私保护法》,《个人信息和数据保护法庭法》以及《人工智能和数据法》的一项法案,并对其他法案进行相关性和相关修订
巴西
- 巴西AI法规(PL 2338/2023):一项拟议的巴西法案旨在为人工智能的开发和使用建立一个综合框架,强调透明度,问责制以及与国际标准的一致性。
中国
- 北京人工智能原则 - 研究,发展,使用,治理和长期计划的倡议,呼吁其健康发展,以支持具有共同未来的人类社区的建设,并实现了对人类和自然的有益AI。
- 中国对生成人工智能服务管理的临时措施 - 关于生成AI服务管理的第一个行政监管,该法规于2023年8月15日生效。
- 中国互联网安全法 - 中国法律,旨在提高网络安全和国家安全,保护网络空间的主权和公共利益,保护公民,合法人员和其他组织的合法权利和利益,并促进健康的经济和社会发展(并由中国事工对行业和信息进行了对中国的行业和信息的依据,该法律依靠中国的策略。毕马威(KPMG)的网络安全法摘要。中国新数据隐私法的战略与国际研究中心概述
- 中国的个人信息安全规范(翻译) - 中国政府在2018年5月生效的第一项主要数字隐私规则,该规则列出了颗粒状的同意准则以及如何收集,使用和共享个人数据。战略与国际研究中心规范概述
- 中国关于微博的信息服务的行政规定 - 中国的规定,这些规定要求微博地点(社交媒体站点)获得法律的相关证书,验证用户的真实身份,建立了分发和驳回谣言的机制。
- 关于加强在线信息保护的决定 - 中华人民共和国全国人民代表大会(NPC)的常务委员会采用了加强在线信息保护的决定 - 这是一项法案,其中包含12条条款,适用于公共和私人领域的实体,涉及互联网上电子个人信息的收集和处理。
- 《个人数据保护法》 - 《中国共和国的个人数据保护法》,该法旨在规范个人数据的收集,处理和使用,以防止对人格权利的损害,并促进正确使用个人数据。
以色列
- AI领域负责制定政策的原则 - 人工智能领域的监管和道德政策草案,重点是“负责任的创新”,旨在确保行业的发展,同时维护公众利益
迪拜
- 智能迪拜人工智能原则和道德 - 道德AI工具包 - 为在城市生态系统提供实用帮助而创建。它支持行业,学术界和个人了解如何负责任地使用AI系统。它由原则和准则组成,以及开发人员评估其平台的自我评估工具。
欧洲联盟
- 高级人工智能专家小组(AI HLEG)编写的欧洲委员会文档(AI HLEG)编写的道德准则。
- 欧盟AI法案 - 欧盟人工智能(AI)法案是一个法律框架,在欧盟中规范AI;这是AI(概述)上实施的第一个法规。
- 通用数据保护法规GDPR-欧盟GDPR法规2016/679的法律文本和2016年4月27日的理事会关于保护个人数据和此类数据的自由流动方面的保护自然人的保护,并废除指令95/46/EC
- GDPR.EU指南 - 由Horizon 2020欧盟框架计划共同资助的项目为研究GDPR的组织和个人提供资源,包括一个直接和最新信息库,以帮助组织实现GDPR合规性(法律文本)。
印度
- 国家人工智能战略 - 本文的方法着重于印度如何利用变革性技术来确保社会和包容性的增长符合政府的发展哲学。此外,印度应努力在其他类似的发展中国家复制这些解决方案。
- 该论文的原则包括通过宗教间咨询,全球大规模的全球多利益相关者咨询以及在过去15个月进行的全球和全球广泛的公共咨询的一系列1-1咨询。本文旨在作为AI生态系统的重要路线图,鼓励以负责任的方式在印度采用AI,并在使用这项技术时建立公众信任,从而将“所有人的AI”概念置于其核心。
墨西哥
- 人工智能国家议程提案 - 墨西哥的建议,以道德和负责任的方式指导墨西哥人工智能的发展和使用。
新加坡
- 2012年数据保护法 - 2012年《个人数据保护法》(“该法”)列出了新加坡数据保护法。除了建立一般数据保护制度外,该法还规定了电话销售实践。
- 保护2019年的在线虚假和操纵法案 - 一项旨在防止新加坡的电子通信虚假陈述,抑制对这种交流的支持和抵消这种沟通的影响,以保护对这种通信的使用和信息操纵的使用,以促进在线沟通,启用措施,以提高在线政治广告的透明度和相关问题。
阿拉伯联合酋长国
- 阿联酋国家人工智能国家战略 - 本文概述了阿联酋的野心,成为政府各地新兴AI技术的快速采用者,并吸引了AI顶级人才来尝试新技术并在复杂,安全的生态系统中工作,以解决复杂的问题。
美国
- AI的白宫行政命令 - 美国行政命令,对人工智能的安全,安全和可信赖的发展和使用
- 加利福尼亚州消费者隐私法(CCPA) - 加利福尼亚州消费者隐私法的法律文本
- EU-US和Swiss-US隐私保护框架-EU-US和Swiss-US隐私盾牌是由美国商务部,欧洲委员会和欧洲委员会和瑞士政府设计的,可为大西洋两岸的公司提供一种机制,以遵守数据保护要求在将欧盟和瑞士从瑞士转移到美国的个人数据时,以支持交通运输。
- 《 2018年公平信用报告法》 - 《公平报告法》是一项联邦法律,该法律规定收集消费者的信用信息并访问其信用报告。
- Gramm-Leach-Billey法案(用于金融机构) - 《 Graham-Leach-Billey法案》要求金融机构(向消费者金融项目或贷款,财务或投资建议或保险等服务的公司)向客户解释其信息共享实践并保护敏感数据。
- 1996年的健康保险可移植性和问责制法 - HIPAA要求美国卫生与公共服务部(HHS)秘书制定保护某些健康信息隐私和安全性的法规,然后HHS发表了所谓的HIPAA隐私规则,以及HIPAA安全规则。
- 在AI中维持美国领导层的行政命令 - 美国总统的官方任务
- 1974年的《隐私法》 - 1974年的《隐私法》,建立了一项公平信息惯例,该法规管理着收集,维护,使用和传播有关个人在记录系统中维护的信息的信息。
- 1980年的《隐私保护法》 - 1980年的《隐私保护法》保护记者不得将执法人员移交给任何工作产品和纪录片,包括来源,然后再向公众传播。
- 国防部针对AI的道德原则 - 美国国防部负责技术承包商的AI指南。该准则为技术生命周期的计划,开发和部署阶段提供了一个逐步的过程。
英国
- 英国的AI法规:一种支持创新的方法 - 这份白皮书详细介绍了英国实施专业创新方法的计划。
- 2018年英国数据保护法 - DPA 2018颁布了GDPR纳入英国法律,但是这样做的是GDPR所允许的各种“贬损”,从而导致了一些关键差异(尽管很小并没有产生微不足道的影响,并且在Brewit后可能会产生更大的影响)。
- 信息专员的数据保护办公室指南 - 本指南适用于数据保护官和其他对数据保护责任的人。它针对中小型组织,但对大型组织也可能有用。
高级框架和原则
- AI&Machine Learning负责ML的8原理 - 道德AI和机器学习研究所为负责的机器学习制定了8个原则,这些原则将由个人和交付团队设计,建筑和操作机器学习系统采用。
- 对准则的评估 - 道德伦理 - 一份研究论文,分析了多种道德原则
- 计算机机械协会的道德和专业行为守则 - 这是计算机机械协会于1992年汇总的道德准则,并于2018年更新。该守则旨在激发和指导所有计算机专业人士的道德行为,包括当前和敏感的实践者,包括当前和吸引人的教师,学生,影响者,以及在影响力中使用计算机技术的人。此外,该代码在发生违规时是修复的基础。该代码包括理解公共利益始终是主要考虑因素的理解,包括作为责任陈述的原则。
- 从何到:对公开可用的AI伦理工具,方法和研究的初步审查,将原则转化为实践 - 英国数字弹射器发表的一篇论文旨在识别和介绍原理与其实际应用之间的差距。
- 欧盟委员会的可信赖AI指南 - 可信赖的人工智能伦理准则(AI)是高级人工智能专家小组(AI HLEG)编写的文件。这个独立的专家小组是由欧盟委员会于2018年6月成立的,这是当年早些时候宣布的AI战略的一部分。
- IEEE在道德上保持一致的设计 - 通过人工智能和自治系统优先考虑人类福祉的愿景,该系统鼓励技术人员优先考虑自主和智能技术的道德考虑。
- 蒙特利尔宣布人工智能的负责发展 - 伦理原则和价值
- 牛津对AI治理的建议 - 牛津未来人类研究所的一系列建议,侧重于围绕正在进行的工作建设和实施AI标准的有效设计,开发和研究所需的基础设施和属性。
- 普华永道负责的AI -PWC汇总了一项调查和一系列原则,这些调查使他们确定为负责人的一些关键领域。
- 新加坡数据保护政府委员会的AI治理原则 - 新加坡政府的个人数据保护委员会已经汇总了一系列指导原则,以进行数据保护和人类参与自动化系统,并提供了一份报告,以打破指导原则和动机。
- 多伦多宣言通过AccessNow保护机器学习系统中平等和非歧视的权利。
- 英国政府的数据道德框架原则 - 数字,文化,媒体和体育部(DCMS)汇总的资源,概述了数据伦理的概述以及7个原则框架。
- 新西兰Aotearoa的算法宪章 - 新西兰Aotearoa的算法宪章是一项不断发展的作品,需要响应新兴技术,并且还适合政府机构。
- 蒙特利尔AI伦理研究所2020年6月的报告 - 蒙特利尔AI伦理研究所(Montreal AI)伦理研究所(Montreal AI Ethics Institute)的资源汇总了2020年3月至2020年6月之间在AI伦理领域中最相关的研究和报告。
- 蒙特利尔AI伦理研究所2020年10月的报告 - 蒙特利尔AI伦理研究所的资源汇集了一项资源,捕获了2020年7月至2020年10月之间在AI伦理领域中最相关的研究和报告。
- 技术和组织最佳实践 - 由技术指南(例如公平性和非歧视性,监测和维护,数据质量,产品可口可用,可解释性)和组织指南(例如数据治理,数据治理,产品管理,人力资源管理,人力资源管理,合规性和审计)提供技术指南(例如公平性和不歧视,监测和维护,数据质量,产品可解释性,可解释性)和无歧视,监测和维护,数据质量,产品可解释性)。欢迎通过FBPML Wiki贡献社区贡献。
- 了解人工智能伦理和安全性 - 艾伦·图灵研究所(Alan Turing Institute)的David Leslie在公共部门负责设计和实施AI系统的指南。
- 负责任和智能数据实践的声明 - 开放数据曼彻斯特的数据最佳实践的共同愿景。
- 关于人工智能伦理的建议 - 联合国教科文组织的建议是一个全面的国际框架,旨在塑造AI技术的发展和使用,并建立一套价值观,符合促进和保护人权,人权,人权尊严和环境可持续性。 193个成员国在2021年11月在联合国教科文组织的大会上通过Acclamation采用了Acclamation。有关更多信息,请参阅联合国教科文组织的2023年有关关键事实的出版物。
过程和清单
- AI RFX采购框架 - 一种评估由伦理AI和机器学习研究所的学者,行业从业人员和技术人员组成的机器学习系统成熟度的采购框架,以赋予希望采购机器学习供应商的行业实践者。
- 数据科学项目的清单 - Deon by Drivendata是一种命令行工具,可让您轻松地在数据科学项目中添加伦理清单。
- 设计道德AI体验清单和协议 - 指导责任感,风险,尊重,安全,诚实和可用的人工智能(AI)系统的发展,具有多元化的团队在共同的道德上保持一致。卡内基梅隆大学,软件工程学院。
- 道德操作系统工具包 - 一种工具包,介入8个风险区域,以评估技术团队可能面临的潜在挑战,以及14个场景以提供示例,以及7种对未来的策略,以帮助采取道德行动。
- 道德画布 - 一种受传统商业画布启发的资源,该资源提供了一种交互式的方式来集思广益的潜在风险,机遇和解决方案,以解决使用类似于后笔记的方法在项目中可能面临的道德挑战。
- Kat Zhou的设计从道德上的资源 - 可以在团队之间组织的一系列研讨会,以确定挑战,评估当前的风险并就可能面临的道德挑战采取行动。
- 马克拉中心(Markula Center)用于工程/设计实践的道德工具包 - 一种实用且可理解的工具包,其中有七个组件来帮助从业人员反映,并判断其运作的道德基础。
- 旧金山市的道德与算法工具包 - 用于使用算法的政府领导者和员工的风险管理框架,提供了两个部分评估过程,包括算法评估过程,以及解决风险的过程。
- 英国政府的数据道德工作簿 - 数字,文化,媒体和体育部(DCMS)汇总的资源,提供了一系列问题,这些问题可以由公共部门的从业人员提出,该问题涉及其数据道德框架原则中的每个原则。
- 世界经济论坛的采购指南 - WEF为政府提供了一套准则,以便能够安全可靠地采购机器学习相关的系统,该系统已与英国政府进行了试验。
- 机器学习保证 - 快速查看机器学习保证:记录,理解,验证和审核机器学习模型及其交易的过程。
- ODEP的雇主清单:通过使用Erecruiting筛查系统(包括AI-雇主协助和残疾人包容性的资源网络)以及有关就业和无障碍技术的合伙企业(peat)的雇主协助和资源网络,促进雇用残障人士的招聘清单,这两者都由美国劳动劳动力雇佣政策(ODEP)的合作(ODEP),ODEP ATR ATR ATH,这两者都资助。该清单为领导,人力资源人员,平等就业机会经理和采购官员提供了指导,以审查用于招募和候选人评估的AI工具,以公平和纳入残疾人。
- Microsoft AI公平清单
- 美国NIST AI风险管理框架 - 该框架旨在帮助AI系统的开发人员,用户和评估人员更好地管理AI风险,这可能影响个人,组织,社会或环境。
互动和实用工具
- Aequitas的偏见与公平审计工具包 - 偏置报告由Aequitas提供支持,Aequitas是机器学习开发人员,分析师和政策制定者的开源偏见审计工具包,以审核机器学习模型,以实现歧视和偏见,并围绕开发和部署预测性的风险风险处理工具,并做出知情和公平的决定。
- 令人敬畏的机器学习生产清单 - 目前由道德AI和机器学习研究所维护的工具和框架列表,这些工具和框架支持生产机器学习系统的设计,开发和操作。
- Cape Python-轻松地将增强隐私技术应用于熊猫和火花中的数据科学和机器学习任务。可以与Cape Core一起使用,以合作制定隐私政策,并在团队和组织之间为数据项目分发这些政策。
- 解释性工具箱 - 传统数据科学过程的扩展版本的道德人工智能和机器学习建议研究所,该提案的重点是算法偏见和解释性,以确保可以缓解围绕不需要的偏见的风险基线。
- 脂肪取证是一种用于评估人工智能系统公平,问责制和透明度的Python工具包。它建立在Scipy和Numpy的顶部,并根据3条规定BSD许可(新BSD)分发。
- IBM的AI解释性360开源工具包 - 这是IBM的工具包,其中包括大量示例,研究论文和演示,它们实施了几种算法,这些算法可提供有关机器学习系统公平性的见解。
- Linux Foundation AI景观 - Linux Foundation策划的AI景观工具的官方列表,其中包含维护良好的工具和框架。
- 对Avanade采取数字道德的行动
- Microsoft Fairlearn-一种开源工具包,用于评估和改善Microsoft开发的机器学习产品的公平性
- Microsoft解释ML-一种开源工具包,用于改善Microsoft开发的解释性/解释性
- Alibi-用于机器学习模型检查和解释的开源Python库。
行业标准计划
- ACS专业行为守则-PDF-澳大利亚ICT(信息和通信技术)部门专业组织。
- 计算机机械协会的道德和专业行为守则 - 这是计算机机械协会于1992年汇总的道德准则,并于2018年更新。该守则旨在激发和指导所有计算机专业人士的道德行为,包括当前和敏感的实践者,包括当前和吸引人的教师,学生,影响者,以及在影响力中使用计算机技术的人。此外,该代码在发生违规时是修复的基础。该代码包括理解公共利益始终是主要考虑因素的理解,包括作为责任陈述的原则。
- IEEE全球人工智能(AI)和自主系统(AS) - IEEE批准的标准项目专门针对道德上一致的设计原则,包括14个(P700X)标准,涵盖从数据收集到隐私到隐私,到算法偏见和超越的主题。
- ISO/IEC的人工智能标准 - ISO的人工智能标准计划,其中包括一系列随后的标准,这些标准涉及大数据,AI术语,机器学习框架等。
在线课程和学习资源
- Udacity的安全和私人AI课程 - Udacity的免费课程,该课程介绍了三种用于隐私AI的尖端技术:联合学习,差异隐私和加密计算。
- 数据科学道德 - 密歇根大学(通过Coursera)的Jagadish教授免费课程,涵盖数据所有权,隐私和匿名性,数据有效性和算法公平性。
- 实用数据伦理 - 旧金山大学数据学院(通过Fast.ai)的Rachel Thomas免费课程,该课程涵盖了虚假信息,偏见和公平,道德规范,隐私和监视的基础,算法殖民主义
- 蒙特利尔大学和IVADO大学(通过EDX)在自由课程中的偏见和歧视,内容涉及算法决策和负责任的机器学习的歧视性影响(制度和技术策略以识别和解决偏见)。
- AI伦理学的介绍 - Kaggle的自由课程介绍了AI中的伦理基本概念以及如何减轻相关问题。
- AI安全,道德和社会简介 - 由AI安全中心主任Dan Hendrycks开发,该免费在线教科书旨在为学生,从业者和其他希望更好地了解与AI安全和道德有关的问题提供可访问的介绍。除了在线阅读外,本书还可以在这里作为PDF提供,也可以在这里作为免费的虚拟课程。
研究和行业新闻通讯
- 进口AI-由Openai的Jack Clark策划的新闻通讯,它策划了最讨厌和相关的AI研究,以及与技术AI研究相交的相关社会问题。
- 马特(Matt)之间的思想 - 新闻通讯由企业家第一首席执行官马特·克利福德(Matt Clifford)策划的新闻通讯,该通讯对围绕地缘政治,深度技术创业公司,经济学以及其他地区的主题进行了策划的批判性分析。
- 机器学习工程师 - 由道德AI和机器学习研究所策划的新闻通讯,其中包含经验丰富的机器学习专业人员的精选文章,教程和博客文章,并包括有关机器学习性,可解释性,可重复性,模型评估,功能分析等最佳实践,工具和技术的见解。
- 蒙特利尔AI伦理学院周刊AI伦理通讯 - 由Abhishek Gupta及其团队在蒙特利尔AI伦理研究所策划的每周一次新闻通讯,其中介绍了技术和学术研究论文的可访问摘要,以及对AI Ethics领域最新领域的评论。
- AI安全通讯 - AI安全中心的每周一次新闻通讯,为非技术受众提供了有关AI研究,政策和其他领域的最新消息。
- ML安全通讯 - AI安全中心的新闻通讯,偶尔会深入了解技术AI研究的关键结果。