很棒的AI法規,原則和準則 |  (又名負責任地寫AI) |
概述
隨著AI系統在社會中變得越來越普遍,我們面臨更大,更嚴格的社會挑戰。鑑於以前沒有面臨許多這些挑戰,從業人員將面臨需要處理艱難的道德和社會問題的場景。
已經發布了大量內容,試圖通過“原則”,“道德框架”,“清單”及其他內容來解決這些問題。但是,瀏覽大量資源並不容易。
該存儲庫旨在通過繪製在人工智能周圍制定的指南,原則,倫理,標準和法規的生態系統來簡化這一點。
快速鏈接到此頁面中的各個部分
按經濟地區進行國家監管
| | |
---|
奧地利?? | 巴西 ?? | 加拿大 ?? |
以色列 ?? | 歐洲聯盟 ?? | 印度 ?? |
墨西哥 ?? | 新加坡 ?? | 阿拉伯聯合大公國 ?? |
美國 ?? | 英國 ?? | |
其他部分
| | |
---|
?高級框架和原則 | ?過程和清單 | ?互動和實用工具 |
行業標準計劃 | 在線課程 | ?研究和行業新聞通訊 |
其他相關資源
您可以加入機器學習工程師通訊。您將收到有關機器學習專業人員策劃的開源框架,教程和文章的更新。 |  |
法規和政策
奧地利
- 人工智能使命奧地利2030年 - 塑造奧地利人工智能的未來。奧地利創新和技術部發表了對AI的願景,直到2030年。
加拿大
- 人工智能與數據法(AIDA) - 制定《消費者隱私保護法》,《個人信息和數據保護法庭法》以及《人工智能和數據法》的一項法案,並對其他法案進行相關性和相關修訂
巴西
- 巴西AI法規(PL 2338/2023):一項擬議的巴西法案旨在為人工智能的開發和使用建立一個綜合框架,強調透明度,問責制以及與國際標準的一致性。
中國
- 北京人工智能原則 - 研究,發展,使用,治理和長期計劃的倡議,呼籲其健康發展,以支持具有共同未來的人類社區的建設,並實現了對人類和自然的有益AI。
- 中國對生成人工智能服務管理的臨時措施 - 關於生成AI服務管理的第一個行政監管,該法規於2023年8月15日生效。
- 中國互聯網安全法 - 中國法律,旨在提高網絡安全和國家安全,保護網絡空間的主權和公共利益,保護公民,合法人員和其他組織的合法權利和利益,並促進健康的經濟和社會發展(並由中國事工對行業和信息進行了對中國的行業和信息的依據,該法律依靠中國的策略。畢馬威(KPMG)的網絡安全法摘要。中國新數據隱私法的戰略與國際研究中心概述
- 中國的個人信息安全規範(翻譯) - 中國政府在2018年5月生效的第一項主要數字隱私規則,該規則列出了顆粒狀的同意準則以及如何收集,使用和共享個人數據。戰略與國際研究中心規範概述
- 中國關於微博的信息服務的行政規定 - 中國的規定,這些規定要求微博地點(社交媒體站點)獲得法律的相關證書,驗證用戶的真實身份,建立了分發和駁回謠言的機制。
- 關於加強在線信息保護的決定 - 中華人民共和國全國人民代表大會(NPC)的常務委員會採用了加強在線信息保護的決定 - 這是一項法案,其中包含12條條款,適用於公共和私人領域的實體,涉及互聯網上電子個人信息的收集和處理。
- 《個人數據保護法》 - 《中國共和國的個人數據保護法》,該法旨在規範個人數據的收集,處理和使用,以防止對人格權利的損害,並促進正確使用個人數據。
以色列
- AI領域負責制定政策的原則 - 人工智能領域的監管和道德政策草案,重點是“負責任的創新”,旨在確保行業的發展,同時維護公眾利益
杜拜
- 智能迪拜人工智能原則和道德 - 道德AI工具包 - 為在城市生態系統提供實用幫助而創建。它支持行業,學術界和個人了解如何負責任地使用AI系統。它由原則和準則組成,以及開發人員評估其平台的自我評估工具。
歐洲聯盟
- 高級人工智能專家小組(AI HLEG)編寫的歐洲委員會文檔(AI HLEG)編寫的道德準則。
- 歐盟AI法案 - 歐盟人工智能(AI)法案是一個法律框架,在歐盟中規範AI;這是AI(概述)上實施的第一個法規。
- 通用數據保護法規GDPR-歐盟GDPR法規2016/679的法律文本和2016年4月27日的理事會關於保護個人數據和此類數據的自由流動方面的保護自然人的保護,並廢除指令95/46/EC
- GDPR.EU指南 - 由Horizon 2020歐盟框架計劃共同資助的項目為研究GDPR的組織和個人提供資源,包括一個直接和最新信息庫,以幫助組織實現GDPR合規性(法律文本)。
印度
- 國家人工智能戰略 - 本文的方法著重於印度如何利用變革性技術來確保社會和包容性的增長符合政府的發展哲學。此外,印度應努力在其他類似的發展中國家複製這些解決方案。
- 該論文的原則包括通過宗教間諮詢,全球大規模的全球多利益相關者諮詢以及在過去15個月進行的全球和全球廣泛的公共諮詢的一系列1-1諮詢。本文旨在作為AI生態系統的重要路線圖,鼓勵以負責任的方式在印度採用AI,並在使用這項技術時建立公眾信任,從而將“所有人的AI”概念置於其核心。
墨西哥
- 人工智能國家議程提案 - 墨西哥的建議,以道德和負責任的方式指導墨西哥人工智能的發展和使用。
新加坡
- 2012年數據保護法 - 2012年《個人數據保護法》(“該法”)列出了新加坡數據保護法。除了建立一般數據保護製度外,該法還規定了電話銷售實踐。
- 保護2019年的在線虛假和操縱法案 - 一項旨在防止新加坡的電子通信虛假陳述,抑制對這種交流的支持和抵消這種溝通的影響,以保護對這種通信的使用和信息操縱的使用,以促進在線溝通,啟用措施,以提高在線政治廣告的透明度和相關問題。
阿拉伯聯合大公國
- 阿聯酋國家人工智能國家戰略 - 本文概述了阿聯酋的野心,成為政府各地新興AI技術的快速採用者,並吸引了AI頂級人才來嘗試新技術並在復雜,安全的生態系統中工作,以解決複雜的問題。
美國
- AI的白宮行政命令 - 美國行政命令,對人工智能的安全,安全和可信賴的發展和使用
- 加利福尼亞州消費者隱私法(CCPA) - 加利福尼亞州消費者隱私法的法律文本
- EU-US和Swiss-US隱私保護框架-EU-US和Swiss-US隱私盾牌是由美國商務部,歐洲委員會和歐洲委員會和瑞士政府設計的,可為大西洋兩岸的公司提供一種機制,以遵守數據保護要求在將歐盟和瑞士從瑞士轉移到美國的個人數據時,以支持交通運輸。
- 《 2018年公平信用報告法》 - 《公平報告法》是一項聯邦法律,該法律規定收集消費者的信用信息並訪問其信用報告。
- Gramm-Leach-Billey法案(用於金融機構) - 《 Graham-Leach-Billey法案》要求金融機構(向消費者金融項目或貸款,財務或投資建議或保險等服務的公司)向客戶解釋其信息共享實踐並保護敏感數據。
- 1996年的健康保險可移植性和問責制法 - HIPAA要求美國衛生與公共服務部(HHS)秘書製定保護某些健康信息隱私和安全性的法規,然後HHS發表了所謂的HIPAA隱私規則,以及HIPAA安全規則。
- 在AI中維持美國領導層的行政命令 - 美國總統的官方任務
- 1974年的《隱私法》 - 1974年的《隱私法》,建立了一項公平信息慣例,該法規管理著收集,維護,使用和傳播有關個人在記錄系統中維護的信息的信息。
- 1980年的《隱私保護法》 - 1980年的《隱私保護法》保護記者不得將執法人員移交給任何工作產品和紀錄片,包括來源,然後再向公眾傳播。
- 國防部針對AI的道德原則 - 美國國防部負責技術承包商的AI指南。該準則為技術生命週期的計劃,開發和部署階段提供了一個逐步的過程。
英國
- 英國的AI法規:一種支持創新的方法 - 這份白皮書詳細介紹了英國實施專業創新方法的計劃。
- 2018年英國數據保護法 - DPA 2018頒布了GDPR納入英國法律,但是這樣做的是GDPR所允許的各種“貶損”,從而導致了一些關鍵差異(儘管很小並沒有產生微不足道的影響,並且在Brewit後可能會產生更大的影響)。
- 信息專員的數據保護辦公室指南 - 本指南適用於數據保護官和其他對數據保護責任的人。它針對中小型組織,但對大型組織也可能有用。
高級框架和原則
- AI&Machine Learning負責ML的8原理 - 道德AI和機器學習研究所為負責的機器學習制定了8個原則,這些原則將由個人和交付團隊設計,建築和操作機器學習系統採用。
- 對準則的評估 - 道德倫理 - 一份研究論文,分析了多種道德原則
- 計算機機械協會的道德和專業行為守則 - 這是計算機機械協會於1992年匯總的道德準則,並於2018年更新。該守則旨在激發和指導所有計算機專業人士的道德行為,包括當前和敏感的實踐者,包括當前和吸引人的教師,學生,影響者,以及在影響力中使用計算機技術的人。此外,該代碼在發生違規時是修復的基礎。該代碼包括理解公共利益始終是主要考慮因素的理解,包括作為責任陳述的原則。
- 從何到:對公開可用的AI倫理工具,方法和研究的初步審查,將原則轉化為實踐 - 英國數字彈射器發表的一篇論文旨在識別和介紹原理與其實際應用之間的差距。
- 歐盟委員會的可信賴AI指南 - 可信賴的人工智能倫理準則(AI)是高級人工智能專家小組(AI HLEG)編寫的文件。這個獨立的專家小組是由歐盟委員會於2018年6月成立的,這是當年早些時候宣布的AI戰略的一部分。
- IEEE在道德上保持一致的設計 - 通過人工智能和自治系統優先考慮人類福祉的願景,該系統鼓勵技術人員優先考慮自主和智能技術的道德考慮。
- 蒙特利爾宣佈人工智能的負責發展 - 倫理原則和價值
- 牛津對AI治理的建議 - 牛津未來人類研究所的一系列建議,側重於圍繞正在進行的工作建設和實施AI標準的有效設計,開發和研究所需的基礎設施和屬性。
- 普華永道負責的AI -PWC匯總了一項調查和一系列原則,這些調查使他們確定為負責人的一些關鍵領域。
- 新加坡數據保護政府委員會的AI治理原則 - 新加坡政府的個人數據保護委員會已經匯總了一系列指導原則,以進行數據保護和人類參與自動化系統,並提供了一份報告,以打破指導原則和動機。
- 多倫多宣言通過AccessNow保護機器學習系統中平等和非歧視的權利。
- 英國政府的數據道德框架原則 - 數字,文化,媒體和體育部(DCMS)匯總的資源,概述了數據倫理的概述以及7個原則框架。
- 新西蘭Aotearoa的算法憲章 - 新西蘭Aotearoa的算法憲章是一項不斷發展的作品,需要響應新興技術,並且還適合政府機構。
- 蒙特利爾AI倫理研究所2020年6月的報告 - 蒙特利爾AI倫理研究所(Montreal AI)倫理研究所(Montreal AI Ethics Institute)的資源匯總了2020年3月至2020年6月之間在AI倫理領域中最相關的研究和報告。
- 蒙特利爾AI倫理研究所2020年10月的報告 - 蒙特利爾AI倫理研究所的資源匯集了一項資源,捕獲了2020年7月至2020年10月之間在AI倫理領域中最相關的研究和報告。
- 技術和組織最佳實踐 - 由技術指南(例如公平性和非歧視性,監測和維護,數據質量,產品可口可用,可解釋性)和組織指南(例如數據治理,數據治理,產品管理,人力資源管理,人力資源管理,合規性和審計)提供技術指南(例如公平性和不歧視,監測和維護,數據質量,產品可解釋性,可解釋性)和無歧視,監測和維護,數據質量,產品可解釋性)。歡迎通過FBPML Wiki貢獻社區貢獻。
- 了解人工智能倫理和安全性 - 艾倫·圖靈研究所(Alan Turing Institute)的David Leslie在公共部門負責設計和實施AI系統的指南。
- 負責任和智能數據實踐的聲明 - 開放數據曼徹斯特的數據最佳實踐的共同願景。
- 關於人工智能倫理的建議 - 聯合國教科文組織的建議是一個全面的國際框架,旨在塑造AI技術的發展和使用,並建立一套價值觀,符合促進和保護人權,人權,人權尊嚴和環境可持續性。 193個成員國在2021年11月在聯合國教科文組織的大會上通過Acclamation採用了Acclamation。有關更多信息,請參閱聯合國教科文組織的2023年有關關鍵事實的出版物。
過程和清單
- AI RFX採購框架 - 一種評估由倫理AI和機器學習研究所的學者,行業從業人員和技術人員組成的機器學習系統成熟度的採購框架,以賦予希望採購機器學習供應商的行業實踐者。
- 數據科學項目的清單 - Deon by Drivendata是一種命令行工具,可讓您輕鬆地在數據科學項目中添加倫理清單。
- 設計道德AI體驗清單和協議 - 指導責任感,風險,尊重,安全,誠實和可用的人工智能(AI)系統的發展,具有多元化的團隊在共同的道德上保持一致。卡內基梅隆大學,軟件工程學院。
- 道德操作系統工具包 - 一種工具包,介入8個風險區域,以評估技術團隊可能面臨的潛在挑戰,以及14個場景以提供示例,以及7種對未來的策略,以幫助採取道德行動。
- 道德畫布 - 一種受傳統商業畫布啟發的資源,該資源提供了一種交互式的方式來集思廣益的潛在風險,機遇和解決方案,以解決使用類似於後筆記的方法在項目中可能面臨的道德挑戰。
- Kat Zhou的設計從道德上的資源 - 可以在團隊之間組織的一系列研討會,以確定挑戰,評估當前的風險並就可能面臨的道德挑戰採取行動。
- 馬克拉中心(Markula Center)用於工程/設計實踐的道德工具包 - 一種實用且可理解的工具包,其中有七個組件來幫助從業人員反映,並判斷其運作的道德基礎。
- 舊金山市的道德與算法工具包 - 用於使用算法的政府領導者和員工的風險管理框架,提供了兩個部分評估過程,包括算法評估過程,以及解決風險的過程。
- 英國政府的數據道德工作簿 - 數字,文化,媒體和體育部(DCMS)匯總的資源,提供了一系列問題,這些問題可以由公共部門的從業人員提出,該問題涉及其數據道德框架原則中的每個原則。
- 世界經濟論壇的採購指南 - WEF為政府提供了一套準則,以便能夠安全可靠地採購機器學習相關的系統,該系統已與英國政府進行了試驗。
- 機器學習保證 - 快速查看機器學習保證:記錄,理解,驗證和審核機器學習模型及其交易的過程。
- ODEP的雇主清單:通過使用Erecruiting篩查系統(包括AI-雇主協助和殘疾人包容性的資源網絡)以及有關就業和無障礙技術的合夥企業(peat)的雇主協助和資源網絡,促進僱用殘障人士的招聘清單,這兩者都由美國勞動勞動力僱傭政策(ODEP)的合作(ODEP),ODEP ATR ATR ATH,這兩者都資助。該清單為領導,人力資源人員,平等就業機會經理和採購官員提供了指導,以審查用於招募和候選人評估的AI工具,以公平和納入殘疾人。
- Microsoft AI公平清單
- 美國NIST AI風險管理框架 - 該框架旨在幫助AI系統的開發人員,用戶和評估人員更好地管理AI風險,這可能影響個人,組織,社會或環境。
互動和實用工具
- Aequitas的偏見與公平審計工具包 - 偏置報告由Aequitas提供支持,Aequitas是機器學習開發人員,分析師和政策制定者的開源偏見審計工具包,以審核機器學習模型,以實現歧視和偏見,並圍繞開發和部署預測性的風險風險處理工具,並做出知情和公平的決定。
- 令人敬畏的機器學習生產清單 - 目前由道德AI和機器學習研究所維護的工具和框架列表,這些工具和框架支持生產機器學習系統的設計,開發和操作。
- Cape Python-輕鬆地將增強隱私技術應用於熊貓和火花中的數據科學和機器學習任務。可以與Cape Core一起使用,以合作制定隱私政策,並在團隊和組織之間為數據項目分發這些政策。
- 解釋性工具箱 - 傳統數據科學過程的擴展版本的道德人工智能和機器學習建議研究所,該提案的重點是算法偏見和解釋性,以確保可以緩解圍繞不需要的偏見的風險基線。
- 脂肪取證是一種用於評估人工智能係統公平,問責制和透明度的Python工具包。它建立在Scipy和Numpy的頂部,並根據3條規定BSD許可(新BSD)分發。
- IBM的AI解釋性360開源工具包 - 這是IBM的工具包,其中包括大量示例,研究論文和演示,它們實施了幾種算法,這些算法可提供有關機器學習系統公平性的見解。
- Linux Foundation AI景觀 - Linux Foundation策劃的AI景觀工具的官方列表,其中包含維護良好的工具和框架。
- 對Avanade採取數字道德的行動
- Microsoft Fairlearn-一種開源工具包,用於評估和改善Microsoft開發的機器學習產品的公平性
- Microsoft解釋ML-一種開源工具包,用於改善Microsoft開發的解釋性/解釋性
- Alibi-用於機器學習模型檢查和解釋的開源Python庫。
行業標準計劃
- ACS專業行為守則-PDF-澳大利亞ICT(信息和通信技術)部門專業組織。
- 計算機機械協會的道德和專業行為守則 - 這是計算機機械協會於1992年匯總的道德準則,並於2018年更新。該守則旨在激發和指導所有計算機專業人士的道德行為,包括當前和敏感的實踐者,包括當前和吸引人的教師,學生,影響者,以及在影響力中使用計算機技術的人。此外,該代碼在發生違規時是修復的基礎。該代碼包括理解公共利益始終是主要考慮因素的理解,包括作為責任陳述的原則。
- IEEE全球人工智能(AI)和自主系統(AS) - IEEE批准的標準項目專門針對道德上一致的設計原則,包括14個(P700X)標準,涵蓋從數據收集到隱私到隱私,到算法偏見和超越的主題。
- ISO/IEC的人工智能標準 - ISO的人工智能標準計劃,其中包括一系列隨後的標準,這些標準涉及大數據,AI術語,機器學習框架等。
在線課程和學習資源
- Udacity的安全和私人AI課程 - Udacity的免費課程,該課程介紹了三種用於隱私AI的尖端技術:聯合學習,差異隱私和加密計算。
- 數據科學道德 - 密歇根大學(通過Coursera)的Jagadish教授免費課程,涵蓋數據所有權,隱私和匿名性,數據有效性和算法公平性。
- 實用數據倫理 - 舊金山大學數據學院(通過Fast.ai)的Rachel Thomas免費課程,該課程涵蓋了虛假信息,偏見和公平,道德規範,隱私和監視的基礎,算法殖民主義
- 蒙特利爾大學和IVADO大學(通過EDX)在自由課程中的偏見和歧視,內容涉及算法決策和負責任的機器學習的歧視性影響(制度和技術策略以識別和解決偏見)。
- AI倫理學的介紹 - Kaggle的自由課程介紹了AI中的倫理基本概念以及如何減輕相關問題。
- AI安全,道德和社會簡介 - 由AI安全中心主任Dan Hendrycks開發,該免費在線教科書旨在為學生,從業者和其他希望更好地了解與AI安全和道德有關的問題提供可訪問的介紹。除了在線閱讀外,本書還可以在這裡作為PDF提供,也可以在這裡作為免費的虛擬課程。
研究和行業新聞通訊
- 進口AI-由Openai的Jack Clark策劃的新聞通訊,它策劃了最討厭和相關的AI研究,以及與技術AI研究相交的相關社會問題。
- 馬特(Matt)之間的思想 - 新聞通訊由企業家第一首席執行官馬特·克利福德(Matt Clifford)策劃的新聞通訊,該通訊對圍繞地緣政治,深度技術創業公司,經濟學以及其他地區的主題進行了策劃的批判性分析。
- 機器學習工程師 - 由道德AI和機器學習研究所策劃的新聞通訊,其中包含經驗豐富的機器學習專業人員的精選文章,教程和博客文章,並包括有關機器學習性,可解釋性,可重複性,模型評估,功能分析等最佳實踐,工具和技術的見解。
- 蒙特利爾AI倫理學院周刊AI倫理通訊 - 由Abhishek Gupta及其團隊在蒙特利爾AI倫理研究所策劃的每週一次新聞通訊,其中介紹了技術和學術研究論文的可訪問摘要,以及對AI Ethics領域最新領域的評論。
- AI安全通訊 - AI安全中心的每週一次新聞通訊,為非技術受眾提供了有關AI研究,政策和其他領域的最新消息。
- ML安全通訊 - AI安全中心的新聞通訊,偶爾會深入了解技術AI研究的關鍵結果。