10月20日、2024 Fintech Conference Parallel Forum「AI Reshapes Finance and Security Governance」で、中国保険監督管理委員会の元副書記兼党委員会副委員長の周燕麗氏が基調講演を行った。周燕麗氏は、金融・保険業界における大型モデル技術の応用の重要性を確認する一方、保険業界への人工知能技術の導入によってもたらされる潜在的なリスクに細心の注意を払うよう業界に呼び掛けた。同氏は、「保険業界は、関連する技術専門家とセキュリティ専門家を結集させ、保険業界に適用される国家標準、業界標準、グループ標準を共同で策定し、保険ビジネスのあらゆる側面における人工知能の適用が安全要件を確実に満たすようにすべきである」と述べた。 。
「保険業界における人工知能技術の導入によってもたらされる潜在的なリスクを過小評価すべきではない」と同氏は業界に対し、顧客の個人プライバシーとデータセキュリティのリスク、そして人工知能技術がどのような影響を与えるかという3つの側面を非常に重視するよう求めた。保険会社は、アルゴリズムやその他の問題に過度に依存するのではなく、意思決定プロセスの公平性、透明性、説明責任を確保し、人工知能の革新的なテクノロジーをより適切に組み合わせる必要があります。保険会社の事業目標を達成し、AI などの新技術を適用する大型モデル 実現可能かつ持続可能。
リスクを防ぐために、周燕麗氏はいくつかの提案を行った。まず、保険業界は、業界の特性に合わせた技術基準と仕様を策定する必要がある。保険業界は、関連する技術専門家と安全専門家を結集して、国家基準、業界基準を共同で策定する必要がある。保険業界に適用される基準とグループ基準を統合し、データの収集と処理からモデルのトレーニングと意思決定の出力までのプロセス全体をカバーする安全基準システムを形成し、保険ビジネスのあらゆる側面での人工知能の適用が安全要件を満たしていることを確認します。
さらに、業界は保険業界向けの人工知能セキュリティ技術システムを包括的に構築し、サードパーティの技術を使用してテストと評価を強化する必要があります。保険会社は、適用する人工知能アルゴリズムとシステムが顧客の個人の機密情報を完全に保護し、「個人情報保護規則」の関連するプライバシー保護規制要件を遵守できることを確認する必要があります。