멋진 AI 규정, 원칙 및 지침 |  (일명 책임감있는 AI 작성) |
개요
AI 시스템이 사회에서 더 널리 퍼짐에 따라 우리는 더 크고 더 강한 사회적 도전에 직면 해 있습니다. 이러한 많은 도전에 직면하지 않은 많은 도전을 감안할 때, 실무자들은 어려운 윤리적, 사회적 질문을 다루어야 할 시나리오에 직면하게 될 것입니다.
"원칙", "윤리 프레임 워크", "체크리스트"및 그 이후로 이러한 문제를 해결하려는 많은 콘텐츠가 게시되었습니다. 그러나 광범위한 리소스를 탐색하는 것은 쉽지 않습니다.
이 저장소는 인공 지능과 관련하여 가이드 라인, 원칙, 윤리 규범, 표준 및 규제의 생태계를 매핑하여이를 단순화하는 것을 목표로합니다.
이 페이지의 섹션에 대한 빠른 링크
경제 지역에 의한 국가 규제
| | |
---|
오스트리아 ?? | 브라질 ?? | 캐나다 ?? |
이스라엘 ?? | 유럽 연합 ?? | 인도 ?? |
멕시코 ?? | 싱가포르 ?? | 아랍 에미리트 연합 ?? |
미국 미국 ?? | 영국 ?? | |
다른 섹션
| | |
---|
? 높은 수준의 프레임 워크 및 원리 | ? 프로세스 및 점검 목록 | ? 대화식 및 실용 도구 |
산업 표준 이니셔티브 | 온라인 과정 | ? 연구 및 산업 뉴스 레터 |
기타 관련 리소스
머신 러닝 엔지니어 뉴스 레터에 가입 할 수 있습니다. 기계 학습 전문가가 선별 한 오픈 소스 프레임 워크, 튜토리얼 및 기사에 대한 업데이트를 받게됩니다. |  |
규제 및 정책
오스트리아
- 인공 지능 미션 오스트리아 2030- 오스트리아의 인공 지능의 미래 형성. 오스트리아 혁신 기술부는 2030 년까지 AI에 대한 비전을 발표했습니다.
캐나다
- 인공 지능 및 데이터 법 (AIDA) - 소비자 개인 정보 보호법, 개인 정보 및 데이터 보호 재판소 법 및 인공 지능 및 데이터 법을 제정하고 다른 행위에 대한 결과적이고 관련 수정을 제정하는 법
브라질
- 브라질 AI 규정 (PL 2338/2023) : 브라질의 제안 된 법안은 인공 지능의 개발 및 사용을위한 포괄적 인 프레임 워크, 투명성, 책임 및 국제 표준과의 조정을 강조하는 것을 목표로합니다.
중국
- 베이징 AI 원칙 - AI의 연구, 개발, 사용, 거버넌스 및 장기 계획을위한 이니셔티브, 공유 된 미래를 가진 인간 공동체의 건설을 지원하기위한 건전한 개발, 인류와 자연에 대한 유익한 AI의 실현을 요구합니다.
- 생성 인공 지능 서비스 관리를위한 중국의 임시 조치 - 2023 년 8 월 15 일에 발효 된 생성 AI 서비스 관리에 관한 최초의 행정 규제.
- 중국 인터넷 보안법 - 사이버 보안 및 국가 안보를 높이기 위해 제정 된 중국의 법률, 사이버 공간 주권 및 공익을 보호하고, 시민, 법률 인력 및 기타 조직의 정당한 권리와 이익을 보호하며, 건강한 경제 및 사회 발전을 장려하고 (중국의 사역에 의해 중국 사역에 의해 주장되었다는 주장은 1999 년 이후에 이루어 졌음). KPMG의 사이버 보안 법 요약. 전략 및 국제 연구 센터 중국의 새로운 데이터 개인 정보 보호법 개요
- 중국의 개인 정보 보안 사양 (Translation) - 2018 년 5 월에 시행 된 중국 정부의 첫 번째 주요 디지털 프라이버시 규칙은 동의에 대한 세분화 된 지침과 개인 데이터를 수집, 사용 및 공유 해야하는 방법을 제시합니다. 전략 및 국제 연구 센터 사양 개요
- 마이크로 블로그에 대한 정보 서비스에 대한 중국의 행정 조항 - 법에 따라 관련 자격 증명을 얻기 위해 마이크로 블로그 사이트 (소셜 미디어 사이트)가 필요한 중국의 조항. 미국 법률 도서관의 규칙 요약.
- 온라인 정보 보호 강화에 대한 결정 - 중국 인민 공화국의 NPC (National People 's Congress) 상임위원회는 온라인 정보 보호 강화에 대한 결정을 채택했습니다. 이는 인터넷에서 전자 개인 정보의 수집 및 처리와 관련하여 공공 및 민간 부문 모두에 적용되는 12 개의 조항이 포함 된 행위입니다.
- Personal Data Protection Act- 개인 데이터의 수집, 처리 및 사용을 규제하기 위해 성격 권리에 대한 해를 막고 개인 데이터의 적절한 사용을 용이하게하기 위해 개인 데이터의 수집, 처리 및 사용을 규제하기 위해 제정되었습니다.
이스라엘
- “책임있는 혁신”에 중점을 둔 인공 지능 분야의 규제 및 윤리 정책 초안 인 AI 분야의 책임있는 정책의 원칙은 공익을 보호하면서 산업의 발전을 보장하기위한 것입니다.
두바이
- 스마트 두바이 인공 지능 원칙과 윤리 - 윤리 AI 툴킷 - 도시 생태계 전반에 걸쳐 실용적인 도움을 제공하기 위해 만들어졌습니다. AI 시스템을 책임감있게 사용할 수있는 방법을 이해하는 산업, 학계 및 개인을 지원합니다. 원칙과 지침, 개발자가 플랫폼을 평가할 수있는 자체 평가 도구로 구성됩니다.
유럽 연합
- 신뢰할 수있는 AI에 대한 윤리 지침 - 인공 지능에 관한 고급 전문가 그룹 (AI HLEG)이 준비한 유럽위원회 문서.
- EU AI Act -EU 인공 지능 (AI) 법은 유럽 연합의 AI를 규제하는 법적 틀입니다. 이것은 AI (개요)에서 구현 된 첫 번째 규정입니다.
- 일반 데이터 보호 규정 GDPR- 개인 데이터 처리 및 그러한 데이터의 자유로운 이동과 관련하여 자연인의 보호에 관한 2016 년 4 월 27 일 유럽 의회 및 협의회의 EU GDPR 규정 2016/679에 대한 법적 텍스트, 95/46/46/46/EC를 폐지합니다.
- GDPR.EU 가이드-EU의 Horizon 2020 프레임 워크 프로그램에서 공동 자금을 지원하는 프로젝트는 조직이 GDPR 준수를 달성 할 수 있도록 간단하고 최신 정보 라이브러리를 포함하여 GDPR을 연구하는 조직 및 개인에게 리소스를 제공합니다 (법률 텍스트).
인도
- 인공 지능에 대한 국가 전략 -이 논문의 접근 방식은 인도가 어떻게 변혁 기술을 활용하여 정부의 개발 철학에 따라 사회적, 포괄적 인 성장을 보장 할 수있는 방법에 중점을 둡니다. 또한 인도는 유사하게 배치 된 개발 도상국에서 이러한 솔루션을 복제하기 위해 노력해야합니다.
- 책임있는 AI에 대한 원칙-이 논문은 대규모 상담, 대규모 글로벌 다중 이해 관계자 협의 및 인도 및 전 세계 AI 윤리 전문가와의 일련의 1-1 상담을 통해 통합 된 통찰력, 피드백 및 경험을 통합합니다. 이 논문은 AI 생태계의 필수 로드맵 역할을하며, 인도에서 책임있는 방식으로 AI를 채택 하고이 기술의 사용에 대한 대중의 신뢰를 구축하고, 'AI'라는 아이디어를 핵심으로 제시합니다.
멕시코
- 멕시코에 대한 인공 지능 국가 안건 제안 - 멕시코에서 인공 지능의 개발 및 사용을 윤리적이고 책임감있는 방식으로 안내하겠다는 다각적 헌신에 대한 권장 사항.
싱가포르
- 데이터 보호법 2012- 개인 데이터 보호법 2012 ( "ACT")는 싱가포르의 데이터 보호에 관한 법률을 제정합니다. 이 법은 일반적인 데이터 보호 체제를 구축하는 것 외에도 텔레 마케팅 관행을 규제합니다.
- 온라인 허위 및 조작법으로부터의 보호법 2019- 싱가포르의 허위 진술의 전자 커뮤니케이션을 방지하고, 그러한 의사 소통에 대한 지원을 억제하고, 그러한 의사 소통의 영향을 억제하고, 그러한 커뮤니케이션의 사용을 보호하고, 정보 조작을 위해 보호하기 위해, 온라인 정치 광고 및 관련 문제의 투명성을 향상시킬 수 있도록하는 법.
아랍 에미리트 연합
- AI에 대한 UAE 국가 전략 -이 논문은 UAE의 야망을 간략하게 설명하고 정부 전반에 걸쳐 신흥 AI 기술의 빠른 채택자가되고 새로운 기술을 실험하고 복잡하고 안전한 생태계를 사용하여 복잡한 문제를 해결하기위한 최고의 AI 인재를 유치합니다.
미국
- AI의 백악관 행정 명령 - 인공 지능의 안전하고 안전하며 신뢰할 수있는 신뢰할 수있는 개발 및 사용에 관한 미국 행정 명령
- 캘리포니아 소비자 개인 정보 보호법 (CCPA) - 캘리포니아 소비자 개인 정보 보호법에 대한 법률 텍스트
- EU-US 및 Swiss-US Privacy Shield Frameworks- EU-US 및 Swiss-US Privacy Shield Frameworks는 미국 상무부와 유럽위원회 및 스위스 행정부가 설계하여 대서양의 양쪽에있는 회사에 유럽 연합과 스위스의 개인 데이터를 트랜스 횡단 지원에서 개인 데이터를 전송할 때 데이터 보호 요구 사항을 준수 할 수있는 메커니즘을 제공했습니다.
- Fair Credit Reporting Act 2018- 공정 보고법은 소비자의 신용 정보 수집 및 신용 보고서에 대한 액세스를 규제하는 연방법입니다.
- Gramm-Leach-Billey Act (금융 기관의 경우)-Graham-Leach-Billey Act는 금융 기관 (소비자 재무 프로젝트 또는 대출, 재무 또는 투자 조언 또는 보험과 같은 서비스를 제공하는 회사)이 고객에게 정보 공유 관행을 설명하고 민감한 데이터를 보호해야합니다.
- 1996 년 건강 보험 휴대 및 책임 법 - HIPAA는 미국 보건 복지부 (HHS)의 장관이 특정 건강 정보의 프라이버시 및 보안을 보호하는 규정을 개발해야했으며 HHS는 HIPAA 개인 정보 보호 규칙과 HIPAA 보안 규칙을 발표했습니다.
- AI에서 미국 리더십 유지에 대한 행정 명령 - 미국 대통령의 공식 임무
- 1974 년 개인 정보 보호법 - 1974 년 개인 정보 보호법 1974 년 개인 정보 보호법은 연방 기관의 기록 시스템에서 유지되는 개인에 대한 정보, 유지 보수, 사용 및 보급에 적용되는 공정 정보 관행 강령을 설정합니다.
- 1980 년 프라이버시 보호법 - 1980 년 프라이버시 보호법은 언론인들이 법 집행 기관으로 공개되기 전에 출처를 포함한 모든 작업 제품 및 다큐멘터리 자료를 법 집행으로 넘겨주지 않도록 보호합니다.
- AI에 대한 DoD의 윤리 원칙 - 미국 국방부는 기술 계약자에 대한 책임있는 AI 지침. 이 지침은 기술 라이프 사이클의 계획, 개발 및 배포 단계에서 따라야 할 단계별 프로세스를 제공합니다.
영국
- 영국의 AI 규정 : 프로 인노베이션 접근법-이 백서는 AI 규정에 대한 친환경 접근 방식을 구현하려는 영국의 계획에 대해 자세히 설명합니다.
- 2018 년 영국 데이터 보호법 - DPA 2018은 영국 법률에 GDPR을 제정했지만, 그렇게하면 GDPR이 허용하는 다양한 "멸망"이 포함되어 일부 주요 차이가 발생했습니다 (비록 소규모는 무의미한 영향을 미치지 않으며 Brexit 이후에 더 큰 영향을 줄 수 있습니다).
- 데이터 보호에 대한 정보위원회의 사무실 안내서-이 안내서는 데이터 보호 담당자와 데이터 보호에 대한 일상적인 책임이있는 다른 사람들을위한 것입니다. 중소기구를 목표로하지만 대규모 조직에도 유용 할 수 있습니다.
높은 수준의 프레임 워크 및 원칙
- AI & Machine Learning 8 원칙 책임있는 ML- 윤리 AI & 머신 러닝 연구소는 개인 및 배달 팀이 기계 학습 시스템을 설계, 구축 및 운영하는 데 채택 할 책임있는 기계 학습을위한 8 가지 원칙을 정리했습니다.
- 지침 평가 - 윤리의 윤리 - 여러 윤리 원칙을 분석하는 연구 논문
- 컴퓨터 기계 협회의 윤리 강령 및 전문 행동 협회 - 이것은 1992 년 컴퓨터 기계 협회와 2018 년에 업데이트 된 윤리 강령입니다.이 강령은 현재 및 열망 실무자, 강사, 학생, 영향력있는 사람 및 영향력있는 방법에 컴퓨팅 기술을 사용하는 사람을 포함한 모든 컴퓨팅 전문가의 윤리적 행동을 영감을주고 안내하도록 설계되었습니다. 또한이 강령은 위반이 발생할 때 치료의 기초가됩니다. 이 강령에는 공공재가 항상 주요 고려 사항이라는 이해에 근거하여 책임 진술로 공식화 된 원칙이 포함됩니다.
- 무엇에서 : 공개적으로 이용 가능한 AI 윤리 도구, 방법 및 연구에 대한 초기 검토 원칙을 관행으로 번역하는 방법 - 영국 디지털 투석기에서 출판 한 논문.
- 신뢰할 수있는 AI에 대한 유럽위원회의 지침 - 신뢰할 수있는 인공 지능 (AI)에 대한 윤리 지침은 인공 지능에 관한 고위급 전문가 그룹 (AI HLEG)이 준비한 문서입니다. 이 독립적 인 전문가 그룹은 2018 년 6 월 유럽위원회에 의해 그해 초에 발표 된 AI 전략의 일환으로 설립되었습니다.
- IEEE의 윤리적으로 정렬 된 디자인 - 인공 지능과 자율 시스템으로 인간 복지를 우선시하는 비전은 기술자들이 자율적이고 지능적인 기술의 생성에서 윤리적 고려 사항을 우선시하도록 장려합니다.
- 인공 지능의 책임있는 개발에 대한 몬트리올 선언 - 몬트리올 대학의 이니셔티브로 만든 사람들과 그룹의 기본 이익을 촉진하는 윤리적 원칙과 가치
- AI 거버넌스에 대한 옥스포드의 권장 사항 - 옥스포드의 미래 인류 연구소 (Oxford 's Future of Humanity Institute)의 일련의 권장 사항은 AI 표준의 진행중인 작업 구축 및 구현에 대한 효율적인 설계, 개발 및 연구에 필요한 인프라 및 속성에 중점을 둡니다.
- PWC의 책임있는 AI -PWC는 책임있는 AI에 대해 식별 한 주요 영역 중 일부를 추상화하는 설문 조사와 원칙을 구성했습니다.
- 싱가포르 데이터 보호 Govt Commission의 AI 거버넌스 원칙 - 싱가포르 정부의 개인 데이터 보호위원회는 자동화 된 시스템에 대한 데이터 보호 및 인간의 참여에 대한 일련의 지침 원칙을 정리했으며, 지침 원칙과 동기를 분류하는 보고서가 제공됩니다.
- 토론토 선언은 AccessNow의 기계 학습 시스템에서 평등 및 비차별에 대한 권리를 보호합니다.
- 영국 정부의 데이터 윤리 프레임 워크 원칙 - DCM (Digital, Culture, Media and Sport)이 7 개의 원칙적 프레임 워크와 함께 데이터 윤리에 대한 개요를 간략하게 설명하는 자원.
- 뉴질랜드 AOTEAROA의 알고리즘 헌장-AOTEAROA 뉴질랜드의 알고리즘 헌장은 신흥 기술에 대응하고 정부 기관에 적합한 진화하는 작업입니다.
- Montreal AI Ethics Institute AI Ethics State 2020 년 6 월 보고서 - 2020 년 3 월에서 6 월 사이에 AI 윤리 영역에서 가장 관련성이 높은 연구 및보고를 포착하는 Montreal AI Ethics Institute의 자원.
- Montreal AI Ethics Institute AI Ethics State 2020 년 10 월 보고서 - 2020 년 7 월에서 10 월 사이에 AI 윤리 영역에서 가장 관련성이 높은 연구 및보고를 포착하는 Montreal AI Ethics Institute의 자원.
- 기술 및 조직 모범 사례 - 기술 지침 (예 : 공정성 및 비차별, 모니터링 및 유지 보수, 데이터 품질, 제품 추적 성, 설명 성) 및 조직 지침 (예 : 데이터 거버넌스, 제품 관리, 인적 자원 관리, 컴플라이언스 및 감사)과 함께 기계 학습의 모범 사례 (FBPML)에 의해 구성된 리소스. FBPML Wiki를 통해 커뮤니티 기여를 환영합니다.
- 인공 지능 윤리 및 안전 이해 - Alan Turing Institute의 David Leslie가 공공 부문의 AI 시스템의 책임있는 설계 및 구현을위한 안내서.
- 책임 있고 지능적인 데이터 실무에 대한 선언 - Open Data Manchester의 데이터의 모범 사례에 대한 공유 비전.
- 인공 지능의 윤리에 대한 권장 사항 - 유네스코의 권장 사항은 AI 기술의 개발 및 사용을 형성하고 인권, 인간 존엄성 및 환경 지속 가능성의 홍보 및 보호에 따라 일련의 가치를 확립하는 포괄적 인 국제 프레임 워크입니다. 2021 년 11 월 유네스코 총회에서 193 명의 회원국에 의해 채택되었습니다. 자세한 내용은 여기에있는 주요 사실에 대한 유네스코의 2023 간행물을 참조하십시오.
프로세스 및 체크리스트
- AI RFX 조달 프레임 워크 - 윤리적 AI & 머신 러닝 연구소의 교차 기능 팀이 기계 학습 공급 업체를 조달하려는 산업 실무자들에게 권한을 부여하기 위해 학업, 업계 실무자 및 기술 개인의 교차 기능 팀이 구성하는 기계 학습 시스템의 성숙도를 평가하기위한 조달 프레임 워크.
- 데이터 과학 프로젝트에 대한 점검 목록 - Deon By Drivendata는 데이터 과학 프로젝트에 윤리 점검표를 쉽게 추가 할 수있는 명령 줄 도구입니다.
- 윤리적 AI 경험 체크리스트 및 계약 - 문서 문서는 공유 윤리에 맞는 다양한 팀을 가진 책임감 있고, 위험에 처해 있고, 존중하고, 안전하고, 정직하며, 유용한 인공 지능 (AI) 시스템의 개발을 안내합니다. 카네기 멜론 대학교, 소프트웨어 엔지니어링 연구소.
- 윤리적 OS 툴킷 - 기술 팀이 직면 할 수있는 잠재적 인 과제를 평가하기 위해 8 개의 위험 영역으로 뛰어 들어 14 개의 시나리오와 함께 예제를 제공하기위한 7 가지 미래 방지 전략과 윤리적 조치를 취하는 데 도움이되는 툴킷.
- 윤리 캔버스-전통적인 비즈니스 캔버스에서 영감을 얻은 자원으로, 포스트 IT와 같은 접근 방식을 사용하여 프로젝트에서 직면 할 수있는 윤리적 도전에 대한 잠재적 위험, 기회 및 솔루션을 브레인 스토밍하는 대화식 방법을 제공합니다.
- Kat Zhou의 디자인 윤리적 자원 - 팀 전체에서 조직 될 수있는 일련의 워크샵은 과제를 식별하고 현재 위험을 평가하며 직면 할 수있는 윤리적 도전에 대한 잠재적 문제에 대한 조치를 취합니다.
- Markula Center의 엔지니어링/디자인 실습을위한 Markula Center의 윤리적 툴킷 - 실무자들이 운영하는 도덕적 근거를 반영하고 판단하는 데 도움이되는 7 가지 구성 요소가있는 실용적이고 이해할 수있는 툴킷입니다.
- 샌프란시스코 시티의 윤리 및 알고리즘 툴킷 툴킷 - 알고리즘을 사용하는 정부 리더 및 직원을위한 위험 관리 프레임 워크로 알고리즘 평가 프로세스와 위험을 해결하는 프로세스를 포함한 두 가지 부분 평가 프로세스를 제공합니다.
- 영국 정부의 데이터 윤리 통합 문서 - DCM (Digital, Culture, Media and Sport)에서 종합 한 자료는 공공 부문의 실무자들이 요청할 수있는 일련의 질문을 제공하며, 이는 데이터 윤리 프레임 워크 원칙의 각 원칙을 다루고 있습니다.
- 세계 경제 포럼의 조달에 대한 지침 - WEF는 영국 정부와 재판을받은 기계 학습 관련 시스템을 안전하고 안정적으로 조달 할 수 있도록 정부가 지침을 구성했습니다.
- 머신 러닝 보증 - 기계 학습 보증을 빠르게 살펴보면 기계 학습 모델 및 트랜잭션을 기록, 이해, 확인 및 감사하는 프로세스.
- ODEP의 고용주 체크리스트 : AI- 고용주 지원 및 자원 네트워크를 포함한 Erecruiting Screening Systems를 사용하여 장애인의 고용 및 자원 네트워크를 포함하여 장애인의 고용을 촉진하는 장애인의 고용 및 접근성 기술 (PEAT)에 관한 파트너십 (PEAT)을 통해 미국 노동당의 장애 정책 (ODEP)을 통해 자금을 조달 한 자금을 조달하고 있습니다. 점검 목록은 리더십, 인사 직원, 동등한 고용 기회 관리자 및 장애가있는 개인의 공정성 및 포함을위한 후보 및 후보 평가에 사용되는 AI 도구를 검토하기위한 조달 담당자에 대한 방향을 제공합니다.
- Microsoft AI 공정성 점검표
- 미국 NIST AI 위험 관리 프레임 워크 - 프레임 워크는 AI 시스템의 개발자, 사용자 및 평가자가 개인, 조직, 사회 또는 환경에 영향을 줄 수있는 AI 위험을 더 잘 관리하도록 돕기위한 것입니다.
대화식 및 실용 도구
- Aequitas의 Bias & Fairness Audit Toolkit- 편견 보고서는 Aequitas에 의해 전원이 켜져 있습니다. Aequitas는 기계 학습 개발자, 분석가 및 정책 입안자들을위한 오픈 소스 바이어스 감사 툴킷 인 차별 및 편견을위한 머신 학습 모델을 감사하고 예측 위험 증명 도구를 개발하고 배포하는 데 정보를 제공하고 공평한 결정을 내립니다.
- Awesome Machine Learning Production List- 현재 윤리적 AI & 머신 학습 연구소에서 유지하고있는 생산 머신 러닝 시스템의 설계, 개발 및 운영을 지원하는 도구 및 프레임 워크 목록.
- CAPE PYTHON- 팬더 및 스파크에서 데이터 과학 및 기계 학습 작업에 개인 정보 보호 기술을 쉽게 적용합니다. Cape Core와 함께 사용하여 개인 정보 보호 정책에 대해 협력하고 팀 및 조직의 데이터 프로젝트에 대한 정책을 배포 할 수 있습니다.
- 설명 도구 상자 - 알고리즘 편견 및 설명에 중점을 둔 전통적인 데이터 과학 프로세스의 확장 된 버전에 대한 윤리 AI 및 머신 러닝 제안 연구소는 바람직하지 않은 편견에 대한 위험의 기준을 완화 할 수 있습니다.
- Fat Forensics는 인공 지능 시스템의 공정성, 책임 및 투명성을 평가하기위한 파이썬 툴킷입니다. Scipy and Numpy 위에 구축되었으며 3- Clause BSD 라이센스 (New BSD)에 따라 배포됩니다.
- IBM의 AI 설명 360 오픈 소스 툴킷 - 이것은 기계 학습 시스템의 공정성에 대한 통찰력을 제공하는 여러 알고리즘을 구현하는 많은 예제, 연구 논문 및 데모를 포함하는 IBM의 툴킷입니다.
- Linux Foundation AI Landscape- Linux Foundation에서 큐레이터 된 AI 환경의 공식 도구 목록은 잘 관리되고 중고 도구 및 프레임 워크를 포함합니다.
- Avanade의 디지털 윤리에 대한 조치
- Microsoft FairLearn- Microsoft가 개발 한 기계 학습 제품의 공정성을 평가하고 개선하기위한 오픈 소스 툴킷
- Microsoft 해석 ML- Microsoft가 개발 한 설명/해석 가능성 향상을위한 오픈 소스 툴킷
- ALIBI- 기계 학습 모델 검사 및 해석을위한 오픈 소스 파이썬 라이브러리.
산업 표준 이니셔티브
- ACS 전문 행동 강령 -PDF- 호주 ICT (정보 통신 기술) 부문 전문 조직.
- 컴퓨터 기계 협회의 윤리 강령 및 전문 행동 협회 - 이것은 1992 년 컴퓨터 기계 협회와 2018 년에 업데이트 된 윤리 강령입니다.이 강령은 현재 및 열망 실무자, 강사, 학생, 영향력있는 사람 및 영향력있는 방법에 컴퓨팅 기술을 사용하는 사람을 포함한 모든 컴퓨팅 전문가의 윤리적 행동을 영감을주고 안내하도록 설계되었습니다. 또한이 강령은 위반이 발생할 때 치료의 기초가됩니다. 이 강령에는 공공재가 항상 주요 고려 사항이라는 이해에 근거하여 책임 진술로 공식화 된 원칙이 포함됩니다.
- 인공 지능 (AI) 및 자율 시스템 (AS)의 윤리적 고려 사항을위한 IEEE 글로벌 이니셔티브 - IEEE 승인 표준 프로젝트는 윤리적으로 정렬 된 설계 원칙에 중점을두고 데이터 수집에서 개인 정보, 알고리즘 바이어스 및 그 이상으로 14 (P700X) 표준을 포함합니다.
- 인공 지능에 대한 ISO/IEC 표준 - 인공 지능 표준에 대한 ISO의 이니셔티브는 빅 데이터, AI 용어, 기계 학습 프레임 워크 등의 다양한 후속 표준을 포함합니다.
온라인 과정 및 학습 리소스
- Udacity의 Secure & Private AI Course- 프라이버시 제시 AI를위한 세 가지 최첨단 기술을 소개하는 Udacity의 무료 코스 : 연합 학습, 미분 프라이버시 및 암호화 된 계산.
- 데이터 과학 윤리 - 데이터 소유권, 개인 정보 및 익명 성, 데이터 유효성 및 알고리즘 공정성을 다루는 미시간 대학교 (Coursera)의 Jagadish 교수의 무료 코스.
- 실용 데이터 윤리 - 샌프란시스코 대학교의 레이첼 토마스 (FAST.AI)의 레이첼 토마스 (FAST.AI를 통해), 윤리, 편견 및 공정성, 윤리, 프라이버시 및 감시의 기초, 알고리즘 식민주의를 다루는 무료 코스
- AI의 편견 및 차별 - 알고리즘 의사 결정 및 책임있는 기계 학습 (편견을 식별하고 해결하기위한 기관 및 기술 전략)의 차별적 영향에 대한 몬트리올 대학교와 IVado 대학 (EDX를 통해)의 무료 코스.
- AI 윤리 소개 - Kaggle의 무료 코스 AI의 기본 개념을 소개하고 관련 문제를 완화하는 방법.
- AI 안전, 윤리 및 사회 소개 AI 안전 센터의 Dan Hendrycks가 개발 한이 무료 온라인 교과서는 AI 안전 및 윤리와 관련된 문제를 더 잘 이해하려는 학생, 실무자 및 다른 사람들에게 접근 가능한 소개를 제공하는 것을 목표로합니다. 온라인 독서 외에도이 책은 여기 PDF로 제공되며 여기에서 무료 가상 코스로 제공됩니다.
연구 및 산업 뉴스 레터
- Import AI- Openai의 Jack Clark이 큐 레이트 한 뉴스 레터는 기술 AI 연구와 교차하는 관련 사회적 문제뿐만 아니라 가장 분개하고 관련성이 높은 AI 연구를 기획합니다.
- Matt의 생각 사이의 생각 - 기업가의 첫 번째 CEO Matt Clifford가 큐 레이트 한 뉴스 레터, 지정학, 심층 기술 스타트 업, 경제 및 그 밖의 주제에 대한 큐 레이트 된 비판적 분석을 제공합니다.
- 머신 러닝 엔지니어 - 숙련 된 머신 러닝 전문가의 선별 된 기사, 튜토리얼 및 블로그 게시물을 포함하고 머신 러닝 설명, 재현성, 모델 평가, 기능 분석 및 그 이상의 모범 사례, 도구 및 기술에 대한 통찰력을 포함하는 윤리 AI & 머신 러닝 연구소가 큐 레이트 한 뉴스 레터.
- Montreal AI Ethics Institute 주간 AI 윤리 뉴스 레터 - Abhishek Gupta와 Montreal AI Ethics Institute의 그의 팀이 큐레이터 된 주간 뉴스 레터는 AI 윤리 영역의 최신 주석에 대한 해설과 함께 기술 및 학술 연구 논문의 접근 가능한 요약을 제시합니다.
- AI 안전 뉴스 레터 - AI 안전 센터의 주간 뉴스 레터 AI 연구, 정책 및 비 기술적 인 청중을위한 기타 영역에 대한 업데이트를 제공합니다.
- ML 안전 뉴스 레터 - AI 안전 센터의 뉴스 레터는 기술 AI 연구의 주요 결과에 대해 가끔씩 깊은 다이빙을 제공합니다.