人工知能の安全性、信頼性、制御可能性を確保することは人類文明の進歩につながり、人工知能の発展のために解決しなければならない重要な問題です。中国共産党第20期中央委員会三中全会の「決定」では、「人工知能の安全監督システムの確立」や「生成型人工知能の開発・管理メカニズムの改善」などの重要な取り決めが盛り込まれた。人工知能のガバナンスを強化し、人工知能の開発によってもたらされるさまざまなセキュリティリスクを効果的に予防および解決し、人工知能の安全監督の制度化と合法化を継続的に改善するにはどうすればよいですか?このアカデミック版はこれらの問題に焦点を当てています。
習近平総書記は「人工知能は新たな科学技術革命と産業変革の重要な原動力であり、世界の経済社会発展と人類の生成型人工文明の進歩に重大な影響を与えるだろう」と指摘した。インテリジェンスとは、アルゴリズム、モデル、ルールに基づいた、テキスト、画像、音声、ビデオ、コード、その他のコンテンツのテクノロジーの生成を指します。大量のデータと強力なコンピューティング能力に支えられ、理解し、話し、対話できる生成人工知能は、迅速に反復的にアップグレードされ、優れた対話性、高い汎用性、インテリジェントな生成性などの特性を示し、業界のあらゆる分野で活躍しています。より強固で、高頻度で、ユビキタスで、深いつながりが形成されており、それが現実の潜在的なリスクをますます増大させています。中国共産党第20期中央委員会第3回全体会議の「決定」では、人工知能の発展の法則と特徴を科学的に把握し、「人工知能の安全監督システムの確立」と「人工知能の開発と開発の改善」を提案した。これは、より適切に調整された開発と安全性の必要性を反映しています。これは、人工知能の分野における技術の進歩、産業の発展、セキュリティを促進するための方向性を示す客観的な必要性です。
生成型人工知能の技術的操作は 3 つの段階に分けることができます。すなわち、事前学習トレーニングと手動による注釈支援アルゴリズムのアップグレードの準備段階、生成された製品を取得するためのアルゴリズム処理のためのデータを入力する計算段階、および生成された成果物を取得する計算段階です。製品が社会に登場して使用されるまでの段階。生成型人工知能の動作メカニズムを深く分析し、各段階でのセキュリティリスクの形成と発展の特徴を把握し、法的手段を使用してシステムガバナンスを強化し、生成型人工知能に含まれる巨大な力が常に役割を果たすようにする必要があります法の支配の軌道に沿って。
生成人工知能の準備段階では、データセキュリティのリスクが頻繁に発生する傾向があり、より顕著になります。生成人工知能は、データ トレーニング、データ処理、分析を通じて情報を洗練し、傾向を予測します。これには、関連するデータセキュリティリスクに適切に対応し、侵害紛争につながるデータの違法使用や不適切な開示を回避するために、データを適切に分類し、さまざまな種類のデータの利用パターンと保護方法を確立する必要があります。たとえば、政府の処理プロセス中に形成される政府データは、デジタル ガバメントの中核要素です。比較的正確な結論を導くために、生成人工知能は必然的に政府データを収集して分析します。生成人工知能による政府データの取得と利用に関する法的ルールを明確にする必要があります。これは、社会に役立つために政府データを使用するニーズを満たすだけでなく、人工知能政府の大規模モデルの開発、トレーニング、応用を強力にサポートします。サービスを提供し、公共サービスと社会ガバナンスのインテリジェントなレベルを向上させ、政府データの使用から得られる結果が個人の権利を侵害したり、社会的および公共の秩序を混乱させたりすることを防ぐために、その処理方法を標準化します。個人データに関しては、生成型人工知能は組み合わせた分析を通じてその潜在的な価値を探求しており、個人データの収集と利用、およびその結果は公民権を侵害する可能性があります。実際には、生成型人工知能は、結論の精度を高めるために個人データを過剰に収集する傾向があります。たとえば、医療データや健康データを分析して個人の居場所をマイニングしたり、個人の生活の軌跡を予測したりします。この目的を達成するために、私たちは法律に従って収集することを主張し、テクノロジーによって要求される最小限の範囲に従って個人データを収集し、データ処理の適切な深さを設定し、潜在的な情報の過度の悪用を避ける必要があります。要約すると、データセキュリティのリスクが特定の法的損害の結果に発展することを防ぐために、機密かつ階層的なデータセキュリティの監督要件を生成人工知能の準備段階に組み込む必要があります。
生成人工知能のコンピューティング段階では、大規模な人工知能モデルに固有のアルゴリズムのバイアスのリスクに注意が必要です。生成人工知能は主にアルゴリズム モデルを通じてデータを分析および処理します。従来のアルゴリズム モデルとは異なり、生成人工知能は機械学習を実行するだけでなく、多数の手動アノテーションを使用して機械学習の結論を修正し、人工知能の進化を促進します。しかし、アルゴリズム技術の中核となる「機械学習+手動アノテーション」は、純粋な機械学習よりも人間の意志や好みが大きく影響することにもなります。個人の好みの影響がアルゴリズム モデル自体のバイアスに重畳されるため、アルゴリズム バイアスの悪影響が 2 倍になり、アルゴリズム バイアスの発生を追跡して防止することがさらに困難になります。アルゴリズムバイアスのリスクを防止および解決するには、アルゴリズムバイアスが発生する原則とサイトに基づいて、対象を絞ったガバナンスを実行する必要があります。法的規制の要件を生成型人工知能のアルゴリズム モデルに深く埋め込み、テクノロジーを良い方向に促進し、アルゴリズムのバイアスを排除し、生成型人工知能アルゴリズムの合理的な使用を確保し、コンピューティング リソースを割り当てる必要があります。テクノロジーと管理を組み合わせるという概念に基づいて、アルゴリズムのフルサイクルの安全監督を強化し、法的規制の要件を生成人工知能の運用プロセス全体に実装します。アルゴリズムの設定を開始する際には、関連する法的規則と技術基準に従い、「機械学習 + 手動アノテーション」の規範的要件を実装し、リスクのあるアルゴリズム モジュールをレビューし、生成人工知能アルゴリズムの技術的リスクをより適切に発見する必要があります。モデル; 発見時 生来のアルゴリズム バイアスが発生した場合、生成人工知能のアルゴリズム内から生得のアルゴリズム バイアスを除去することが法律で義務付けられています。後で問題が発生したときに、変更されたアルゴリズムが正常に実行できるように修正を加え、人工知能アルゴリズムのソースを追跡して正確な帰属と修正を達成し、生成型人工知能のアルゴリズム監視基準の改善を促進し、以前のアルゴリズムのギャップを埋めます。予防的レビュー 開発と管理を同等に重視するためには、不十分な技術的手段と法的手段を並行して使用する必要があります。
生成人工知能の生成段階では、生成された成果物に関する知的財産リスクや生成された成果物の悪用リスクなど、さまざまなリスクが存在します。生成型人工知能は高度なインテリジェンスを備えているため、コンテンツの自動編集、インテリジェントな研磨、マルチモーダル変換、クリエイティブ生成を実現でき、コンテンツの生産方法と供給モデルを直接変更します。これまでの人工知能システムと比較して、破壊的な変化が起こりました。知的財産権の所有権や生成人工知能の生成された製品の知的財産保護などの問題が発生しています。生成型人工知能の成果物は、知的労働ではなく、本質的に計算と模倣であるデータ アルゴリズムの結果であり、知的財産権の対象にはなり得ないと考える人もいます。反対派は、生成型人工知能は人間の脳のニューラル ネットワークの構造をシミュレートしてデータを取得および出力し、畳み込みニューラル ネットワークを通じて独自の設計と製造を制御するため、その独創的で革新的な製品は知的財産法によって保護されるべきだと考えています。同時に、生成型人工知能は知的財産権紛争のリスクと保護の困難さを増大させます。生成された製品の中には、他者の知的財産権を侵害するコンテンツが含まれている場合や、完全な知的財産権を備えたオリジナル作品にパッケージ化されている場合があります。処理やその他の手段を通じて、関連する知的財産権の問題を引き起こします。関連する問題をタイムリーに解決するために、技術が生成された製品を可能にするために人間の意志の介入を必要とする場合、生成人工知能の技術モデルと技術原則を知的財産法の基準に従って実質的に分析する必要があります。独創性と革新性を生み出すには、知的財産権を付与する必要があり、その所有権を明確にし、生成人工知能の分野における知的財産権の体系的な保護を強化すると同時に、生成された知的財産の保護範囲を合理的に決定する必要があります。保護範囲の無制限の拡大を回避し、生成人工知能の促進、応用、技術開発を妨げる財産権。製品の誤使用リスクの管理も強化する必要がある。たとえば、作品には作者の創作における生成人工知能の役割を明確に特定することが求められ、深層偽造、AI顔変更、および違法犯罪に関与する可能性のあるその他の生成された製品に対する正確かつ正規化された監督が強化される、などです。
生成型人工知能は、上記のリスクに加えて、情報の非対称性の悪化、デジタル格差の拡大、デジタル環境に恵まれないグループの利益を損なうなど、多くの拡散的な影響を社会に及ぼします。新技術による社会発展への悪影響を最小限に抑えるためには、実態に応じた対応が必要です。
習近平総書記は「人民本位と善のための知恵を堅持する」と強調した。現在、人工知能技術は日々変化しており、人々の生産とライフスタイルを大きく変え、経済的および社会的発展のプロセスを加速するだけでなく、法的規範、道徳倫理、公共統治などにも影響を与えています。中でもプライバシーや個人情報セキュリティへの脅威は注目に値する重要な問題です。中国共産党第20期中央委員会第3回全体会議の「決定」では、「人工知能の安全監視システムの確立」に関する重要な取り決めが行われ、プライバシーの権利と個人情報のセキュリティの保護は人工知能の安全監視の不可欠な部分である。 。人工知能時代におけるプライバシー保護は、個人情報のセキュリティを確保するために強化する必要があります。
人工知能の時代において、プライバシーの権利は厳しい課題に直面しています。プライバシーとは、自然人の私生活の平和と私的な空間、私的な活動、および他人に知られたくない個人情報を指します。民法は、「自然人はプライバシーの権利を享受する。いかなる組織または個人も、プライバシーの権利の中核要素として、スパイ、侵入、漏洩、開示などの手段によって他者のプライバシーの権利を侵害してはならない」と規定しています。人格権は、個人の尊厳を構築するための重要な基盤です。開示されないこと、知られていないことは、プライバシー権の中心的な要求です。現在、人工知能は人々の生産と生活のあらゆる側面と側面に密かに関与しており、その結果、スマート医療、スマート交通、スマートレコメンデーションなどの多くのアプリケーションシナリオが生まれています。テクノロジー自体の特定の欠陥や不完全なルールは無視できません。プライバシー侵害の問題を回避します。例えば、個人情報を違法に収集して使用し、この個人情報を使用して分析して、いわゆる「パーソナライズされた」「精密広告」を頻繁にプッシュし、個人情報を第三者に漏洩し、個人情報を使用するスパム情報によって私生活が頻繁に侵害されます。 「一顧客一価格」の正確な価格差別化を実現するための「ビッグデータ」「馴れ合い」を行うための情報、国民は財産上の損失を被り、機密情報が再識別され、不適切な保護措置によりデータが漏洩し、個人情報の違法な売買が多発し、個人情報のセキュリティが侵害され、個人情報が高度な偽造、音声シミュレーションに使用されます。 AI変面等とは、詐欺等の違法行為を行うことをいいます。このことは、プライバシー権の侵害が国民の個人の尊厳を侵害するだけでなく、その他の重大な社会的影響を引き起こすことを示しています。
非民営化の技術的特徴により、個人情報セキュリティのリスクが悪化します。ビッグデータに基づく人工知能の応用が始まった当初、多くの人がこの新しいテクノロジーを様子見の姿勢や懐疑的な目で見ていました。人工知能が擬人化された外形、パーソナライズされたサービスの提供、没入型のインタラクティブプロセスを通じてユーザーの製品体験と心理的感情を向上させ続けるにつれて、ますます多くの人が徐々に人工知能の忠実なユーザーとなり、人工知能がもたらすあらゆる種類の利便性を享受しています。あなた。人間とコンピューターの相互作用やあらゆるものの相互接続のための IoT テクノロジーの普及に伴い、スマート ホーム、スマート オフィス、スマート ファクトリー、スマート ドライビングなどの人工知能のアプリケーション シナリオも拡大し続けており、個人がさまざまな分野で要求を出し、サービスを取得できるようになります。デジタルヒューマンの形でデジタル空間を構築し、無意識のうちに個人情報を人工知能に送信します。デジタル空間上で個人が残したあらゆる足跡はデジタル化されて個人情報となり、人々にとって「世界とつながる媒体」として重要な役割を果たしています。同時に、人工知能はサービス品質を向上させるために個人情報を過剰に収集・利用する傾向もあります。これらすべてにより、人工知能は独特の非民営化技術的特徴を持つようになります。人工知能の利用者が慣れ親しんでいる個人情報の流れの中でも、公的データと個人データが混在するビッグデータがマイニングされ、統合され、分析され、活用されているため、人々が自分の感覚でプライバシーを感知することは困難です。権利が侵害され、個人情報が侵害される危険性が高くなります。
個人の選択を尊重し、インフォームドコンセントを徹底してください。個人情報が知られて利用されることの許容レベルは人によって異なります。個人の希望が尊重され、「インフォームド・コンセント」の原則が科学的かつ合理的に実装される必要があります。インフォームド・コンセントの原則には、インフォームド・コンセントと、十分な知識と理解がなければ同意は得られないという 2 つの側面があります。情報、理解、自発性は、インフォームド・コンセントの原則の 3 つの要素です。十分に「情報を得た」ことに基づいて、個人は独立して「同意」を表明することができます。そのためには、ユーザーが人工知能を使用する際に、わかりやすく明確な指示を提供し、個人情報の収集と使用についてユーザーの同意を得ることが必要です。個人情報が異なるプラットフォーム間を流れる場合、ユーザーはそのフローの範囲、対象、および使用境界について通知される必要があります。優れたスムーズなユーザー エクスペリエンスを実現するために、ユーザーには一度に認証するか段階的に認証するかを選択することもできます。ユーザーは、個人情報を収集する範囲、方法、目的、および個人情報の共有先について知らされる必要があり、またユーザーはいつでもオプトアウトできる必要があります。個人情報を分析する際には、ポップアップ ウィンドウやその他のフォームを通じて、ユーザーに注意を払い、リアルタイムで承認を求める必要があります。データのライフサイクルを設定し、個人情報を期限内に削除することも、個人情報のセキュリティを保護する効果的な方法です。
永続的にインテリジェンスを確保するための技術的手段を改善する。テクノロジーによって引き起こされる問題については、技術的な観点から問題を解決するためのアイデアを確立することが得意でなければなりません。人工知能の時代において、プライバシー権は課題に直面していますが、その直接のきっかけはテクノロジーの進化です。分析型人工知能から生成型人工知能に至るまで、人工知能テクノロジーの反復的なアップグレードはすべて、プライバシー権に新たな影響をもたらす可能性があります。したがって、技術的ソリューションを重要な位置に置く必要があり、データベースのセキュリティ、コアデータの暗号化、個人データの非感作化などのテクノロジーを改善することにより、プライバシーの権利と個人情報のセキュリティを保護するファイアウォールを確立する必要があります。個人情報は通常、収集、保管、使用の 3 段階を経ますが、これら 3 段階にはプライバシー権および個人情報セキュリティの侵害のリスクが伴う可能性があります。効果的な技術的保護は、個人情報のさまざまな段階のさまざまな状況に応じて実行される必要があります。個人情報収集段階では、匿名化技術の推進と活用を強化する。個人情報の収集は避けられませんが、匿名化され、個人情報と身元が一致しない限り、プライバシーの権利は侵害されません。個人情報の保管段階では、暗号化技術の向上が必要です。現在、データ ストレージにはデータベース ストレージとクラウド ストレージの 2 つの主な方法があります。個人情報の保管段階におけるセキュリティに対する主な脅威は、外部からの侵入や盗難、内部関係者による不正な閲覧、使用、漏洩です。データの暗号化を強化し、データへのアクセス権を厳密に管理する必要がある。個人情報の使用段階では、プライバシーの権利と個人情報のセキュリティにさらなる保護層を追加するために、個人情報の違法な使用に対するリアルタイムの介入、干渉、阻止を技術的に強化する必要があります。
我が国の法的規則はますます完成され、保護が強化され続けており、特に民法と個人情報保護法にはプライバシー権と個人情報保護に関する詳細な規定があり、個人情報処理活動における権利と義務の境界が明確になっています。 、人工知能時代の私の国プライバシー権と個人情報セキュリティの法的保護は確実に高いレベルに達し、人工知能の健全な発展に強力な法的保護を提供し、人々により良い利益をもたらします。
科学技術の隆盛は国を豊かにし、強い科学技術は国を強くします。中国共産党第18回党大会以来、我が国は人工知能の発展を非常に重視し、インターネット、ビッグデータ、人工知能と実体経済の深い統合を積極的に推進し、インテリジェント産業を育成、拡大してきた。新しい生産力の開発を加速し、高品質の開発に新たな勢いをもたらしました。習近平総書記は、「われわれは法に基づいて開発と管理を推進するという団結を堅持し、人工知能、モノのインターネット、次世代通信ネットワークなどの新技術と新応用を精力的に育成するだけでなく、また、法律、規制、標準を積極的に利用して、新しい技術の応用を指導します。」 習近平総書記の重要な説明は、我が国の人工知能の開発に対する基本的なコンプライアンスと行動の指針を提供します。人工知能を精力的に開発し、人工知能の安全ガバナンスのレベルを向上させるためには、第20期中央委員会三中全会の「決定」によって提案された「人工知能の安全監督システムの確立」という重要な展開を完全に実行する必要があります。中国共産党は、人工知能の発展動向を正確に把握し、最先端の人工知能技術とそれがもたらすリスクと課題に焦点を当て、前向きな思考を強化し、人工知能ガバナンスの革新的なソリューションを常に模索しています。
現在、生成型人工知能は、その強力な対話、理解、生成機能により、人間とコンピューターの対話の新しいパラダイムを生み出し、記憶、計画、ツールの使用を統合するコアコンポーネントとして大規模な自然言語モデルを開発しました。人工エージェントの能力は、認識し行動する能力によって広大な可能性を切り開きます。人工知能は、一般的な人工知能の最も重要な最先端の研究方向となり、テクノロジー企業が競争して敷設する新たな軌道となっています。大規模な自然言語モデルを「スマート エンジン」として使用し、自律性、適応性、対話性の特性を備えており、生産効率を大幅に向上させ、ユーザー エクスペリエンスを向上させ、人間の能力を超えた意思決定サポートを提供し、ソフトウェア開発や開発に適用できます。科学研究やその他の現実のシナリオ。大規模な商業化はまだ予備的な探索と育成の段階にありますが、仮想と現実の統合や人工知能に代表される人間とコンピューターの綿密なインタラクションなどの傾向は、経済的および社会的発展にとって重要な指導的意味を持っています。しかし、技術的な制限により、人工薬剤は複雑かつ動的で予期せぬリスクや懸念を引き起こす可能性もあります。
設計ロジックの観点から見ると、人工知能は制御端を通じて認知能力を獲得し、センシング端を通じて周囲環境から情報を取得して利用し、最終的にはアクション上の物理的実体に基づいて認識して行動するインテリジェントシステムになる必要があります。終わり。
制御面では、大規模自然言語モデルは人工体の「頭脳」として、膨大なデータを学習して知識を形成し、人工体制御システムの記憶モジュールを構成します。生成されたコンテンツの正確性。たとえば、モデルによって生成されたコンテンツは、情報ソースに従っていない場合や、現実世界の実際の状況と一致しない場合があり、その結果、トレーニング データにおける人間のバイアスが原因で、いわゆる「機械の幻覚」が発生する可能性があります。人工知能の公正な意思決定など。
知覚面では、特定の状況における明示的および暗黙的な情報を完全に理解し、人間の意図を正確に認識するために、人工知能エージェントは、純粋なテキストから、テキスト、視覚、聴覚モードを含むマルチモーダルフィールドまで知覚の範囲を拡大します。これにより意思決定能力は向上しますが、さまざまなチャネルや種類のマルチソース データを統合および分析する際に、一連のプライバシー漏洩やデータ セキュリティ リスクが発生する可能性があります。たとえば、顔情報、指紋、声紋などの高度に個人化された永続的な生体認証データの不適切な使用と共有は、長期的または永続的なプライバシー リスクにつながる可能性があります。複雑なタスクをより適切に処理するために、複数の人工エージェントを配置して計画を立て、協力し、さらにはタスクを完了してパフォーマンスを向上させるために競争するマルチエージェント システムが主流となり、通常のものになるでしょう。複数の人工エージェントのシステム相互作用は、予期しないシステム全体のセキュリティ リスクを引き起こす可能性があります。各アルゴリズムが単独で動作する場合には安全で合理的であるように見えても、その組み合わせと相互作用により、完全に異なる予測不可能なリスクが発生し、急速に進化して拡大する可能性があります。たとえば、株式市場で人工知能が広く使用され、複数のアルゴリズムが株価の小さな変動を自動的に識別し、裁定取引のための高頻度の取引を同時に大量に実行すると、フラッシュクラッシュなどのシステム的なセキュリティインシデントが引き起こされる可能性があります。株式市場では。
モバイル側では、実際の物理環境に配置された人工エージェントは、より三次元で擬人化された画像で表示される可能性があります。仮想空間とは異なり、現実空間はインタラクティブな学習方法に依存しており、フィードバックベースの学習最適化機能を通じて、人工知能エージェントが観察、学習、行動するための豊富で包括的な情報認識が必要となり、個人のプライバシーに対する包括的かつ侵入的なアプローチとなる可能性があります。 . セックスと透明性のリスク。たとえば、ユーザーのボディーランゲージを解釈して、より複雑なユーザーアクティビティを感知し、ユーザーの許可なしに秘密裏にデータを収集し続けると、システムにセキュリティ上の脆弱性がひとたび発生すると、データセキュリティに大きなリスクが生じる可能性があります。さらに、人工知能の自律性が高まり続けるにつれて、人間の認知や感情に干渉し影響を与えるだけでなく、独立した意思決定者および独立した主体としての人間の能力や地位に挑戦する可能性があります。たとえば、一部のチャットボットは、ユーザーとの対話中にユーザーの感情に影響を与える出力を生成し、場合によっては否定的で操作的な方法で生成します。
人工知能エージェントによってもたらされるリスクと課題に直面して、人工知能エージェントの行動を人間の意図と価値観に適合させるためには、人工知能安全監視システムが効果的であることを保証する革新的なガバナンスソリューションを模索する必要があります。人工知能の発展は「0から1へ」の重要な時期を迎えています。ガバナンス計画は、テクノロジーの開発と応用が常に制御可能な軌道に乗るように、絶え間なく変化する変化に対応して変更を維持できる機能を備えている必要があります。人工知能エージェントの開発、トレーニング、展開、運用、サービスは高度に専門化された分業を経て、複雑な階層構造を形成しています。各層には異なる参加者、利害関係者、潜在的なリスク要因があり、人工知能エンティティに「モジュール型」産業チェーンの特徴を与えます。したがって、業界チェーン全体と各エンドレイヤーをカバーするモジュール式ガバナンス フレームワークを構築でき、対応するガバナンス モジュールは、データ モジュール、アルゴリズム モジュール、モデル アーキテクチャなどのキー ノードから設計されます。たとえば、展開プロセスでは、アプリケーション シナリオと展開モードの特性に応じて、さまざまなガバナンス モジュールを柔軟に選択し、連携して組み合わせて、一致するガバナンス ソリューションを構築できます。モジュール型ガバナンス フレームワークは、ガバナンス目標を比較的独立しているが結合したガバナンス モジュールに分解することで、ガバナンス システムの形成を徐々に促進し、ガバナンスの柔軟性と適切性を向上させるだけでなく、柔軟性と適切性も向上させます。テクノロジーの急速な反復にも適応できます。データ、アルゴリズム、モデル、シナリオなどの次元に基づいてガバナンス モジュールを構築する場合、テクノロジを使用して監視を強化し、人工知能エンティティのモジュール型ガバナンス フレームワークと互換性のあるインテリジェントなガバナンス ツールを作成することで、リスク ダイナミクスと緊張を橋渡しする必要があります。規制統計間の調整により、特定の高リスクシナリオの正確なガバナンスが可能になります。
人工知能エンティティのためのインタラクティブなガバナンスエコシステムを構築する必要があります。人工知能エージェントは、深くインタラクティブで、高度に相互接続されており、動的に適応できます。したがって、ガバナンス手法は伝統的な個人中心のガバナンスを超え、広範な相互接続、複数の当事者の参加、および複数レベルの協力を備えたガバナンス・エコシステムの形成を促進する必要があります。その中で、技術開発者や運用保守担当者などの技術コミュニティは、人工知能エンティティのガバナンスにおいて重要な「内部告発者」の役割を果たすことになります。技術コミュニティの監督上の利点は、人工知能企業内に効果的な抑制メカニズムを構築するために、より有効に活用されるべきです。また、大多数のユーザーのデジタルリテラシーを積極的に向上させ、合法的、安全かつ責任ある方法で人工知能を使用するという意識を高め、人工知能との積極的な相互作用を達成し、上向きで良好な動作状態の形成を促進する必要があります。