Die Sicherstellung, dass künstliche Intelligenz sicher, zuverlässig und kontrollierbar ist, trägt zum Fortschritt der menschlichen Zivilisation bei und ist ein wichtiges Problem, das für die Entwicklung künstlicher Intelligenz gelöst werden muss. Der „Beschluss“ der dritten Plenarsitzung des 20. Zentralkomitees der Kommunistischen Partei Chinas traf wichtige Vorkehrungen wie die „Einrichtung eines Sicherheitsüberwachungssystems für künstliche Intelligenz“ und „die Verbesserung des Entwicklungs- und Verwaltungsmechanismus der generativen künstlichen Intelligenz“. Wie kann die Governance der künstlichen Intelligenz gestärkt, verschiedene Sicherheitsrisiken, die durch die Entwicklung künstlicher Intelligenz entstehen, wirksam verhindert und gelöst werden und die Institutionalisierung und Legalisierung der Sicherheitsüberwachung künstlicher Intelligenz kontinuierlich verbessert werden? Diese wissenschaftliche Ausgabe konzentriert sich auf diese Themen.
Generalsekretär Xi Jinping betonte: „Künstliche Intelligenz ist eine wichtige treibende Kraft für eine neue Runde der wissenschaftlichen und technologischen Revolution und der industriellen Transformation und wird tiefgreifende Auswirkungen auf die globale wirtschaftliche und soziale Entwicklung sowie den Fortschritt der generativen künstlichen Zivilisation haben.“ Unter Intelligenz versteht man die Erzeugung künstlicher Intelligenz auf Basis von Algorithmen, Modellen und Regeln für Texte, Bilder, Töne, Videos, Codes und andere Inhalte. Unterstützt durch riesige Datenmengen und leistungsstarke Rechenleistung wird die generative künstliche Intelligenz, die verstehen, sprechen und interagieren kann, schnell iterativ weiterentwickelt, weist Merkmale wie gute Interaktivität, hohe Vielseitigkeit und intelligente Generativität auf und funktioniert in allen Lebensbereichen der Branche Es hat sich immer starrere, hochfrequentere, allgegenwärtigere und tiefere Verbindungen gebildet, was auch zu immer mehr realen potenziellen Risiken führt. In der „Entscheidung“ der dritten Plenarsitzung des 20. Zentralkomitees der Kommunistischen Partei Chinas wurden die Gesetze und Merkmale der Entwicklung künstlicher Intelligenz wissenschaftlich erfasst und vorgeschlagen, „ein Sicherheitsüberwachungssystem für künstliche Intelligenz einzurichten“ und „die Entwicklung zu verbessern“. „Managementmechanismus der generativen künstlichen Intelligenz“, der die Notwendigkeit einer besser koordinierten Entwicklung und Sicherheit widerspiegelt. Es ist eine objektive Notwendigkeit, den Weg für die Förderung des technischen Fortschritts, der industriellen Entwicklung und der Sicherheit im Bereich der künstlichen Intelligenz aufzuzeigen.
Der technische Betrieb der generativen künstlichen Intelligenz kann in drei Phasen unterteilt werden, nämlich die Vorbereitungsphase des Pre-Learning-Trainings und der manuellen annotationsgestützten Algorithmus-Aktualisierung, die Berechnungsphase der Dateneingabe für die Algorithmusverarbeitung zum Erhalten der generierten Produkte und die generierte Phase Produkte, die zur Nutzung in die Gesellschaft gelangen. Wir müssen den Wirkmechanismus der generativen künstlichen Intelligenz eingehend analysieren, die Merkmale der Entstehung und Entwicklung von Sicherheitsrisiken in jeder Phase erfassen, rechtliche Mittel zur Stärkung der systemischen Governance einsetzen und sicherstellen, dass die enorme Macht der generativen künstlichen Intelligenz immer eine Rolle spielt Auf der Spur des Rechtsstaates.
In der Vorbereitungsphase der generativen künstlichen Intelligenz treten Datensicherheitsrisiken häufiger auf und treten stärker in den Vordergrund. Generative künstliche Intelligenz verfeinert Informationen und prognostiziert Trends durch Datentraining, Datenverarbeitung und -analyse. Dies erfordert eine angemessene Klassifizierung der Daten und die Festlegung von Nutzungsmustern und Schutzmethoden für verschiedene Arten von Daten, um angemessen auf relevante Datensicherheitsrisiken zu reagieren und eine illegale Nutzung oder unzulässige Offenlegung von Daten zu verhindern, die zu Rechtsstreitigkeiten wegen Vertragsverletzung führen würde. Beispielsweise sind Regierungsdaten, die während des Regierungsverarbeitungsprozesses entstehen, ein Kernelement der digitalen Regierung. Um relativ genaue Schlussfolgerungen zu ziehen, sammelt und analysiert generative künstliche Intelligenz zwangsläufig Regierungsdaten. Die rechtlichen Regeln für die Erfassung und Nutzung von Regierungsdaten durch generative künstliche Intelligenz sollten geklärt werden, was nicht nur den Anforderungen der Nutzung von Regierungsdaten im Dienste der Gesellschaft gerecht wird, sondern auch die Entwicklung, Schulung und Anwendung großer Regierungsmodelle mit künstlicher Intelligenz nachdrücklich unterstützt Dienstleistungen und verbessert das intelligente Niveau der öffentlichen Dienste und der sozialen Governance; und standardisiert seine Verarbeitungsmethoden, um zu verhindern, dass die durch die Verwendung staatlicher Daten erzielten Ergebnisse persönliche Rechte verletzen und die soziale und öffentliche Ordnung stören. Für personenbezogene Daten erkundet die generative künstliche Intelligenz ihren potenziellen Wert durch kombinierte Analysen, und ihre Erhebung und Nutzung personenbezogener Daten sowie ihre Ergebnisse können gegen Bürgerrechte verstoßen. In der Praxis tendiert die generative künstliche Intelligenz dazu, personenbezogene Daten übermäßig zu sammeln, um die Genauigkeit von Schlussfolgerungen zu verbessern, indem beispielsweise medizinische und Gesundheitsdaten analysiert werden, um den persönlichen Aufenthaltsort zu ermitteln und persönliche Lebensverläufe vorherzusagen. Zu diesem Zweck müssen wir auf einer gesetzeskonformen Erhebung bestehen, personenbezogene Daten im technisch erforderlichen Mindestumfang erheben, eine angemessene Tiefe der Datenverarbeitung festlegen und eine übermäßige Ausbeutung potenzieller Informationen vermeiden. Zusammenfassend lässt sich sagen, dass klassifizierte und hierarchische Datenschutzaufsichtsanforderungen in die Vorbereitungsphase der generativen künstlichen Intelligenz eingebettet werden sollten, um zu verhindern, dass sich Datensicherheitsrisiken zu konkreten rechtlichen Schadensfolgen entwickeln.
In der Rechenphase der generativen künstlichen Intelligenz ist das Risiko einer algorithmischen Verzerrung, die großen Modellen der künstlichen Intelligenz innewohnt, wachsam. Generative künstliche Intelligenz analysiert und verarbeitet Daten hauptsächlich durch Algorithmenmodelle. Im Gegensatz zu herkömmlichen Algorithmusmodellen führt generative künstliche Intelligenz nicht nur maschinelles Lernen durch, sondern verwendet auch eine große Anzahl manueller Anmerkungen, um die Schlussfolgerungen des maschinellen Lernens zu korrigieren und die Entwicklung künstlicher Intelligenz voranzutreiben. Allerdings wird „maschinelles Lernen + manuelle Annotation“ als Kern der Algorithmustechnologie auch dazu führen, dass menschlicher Wille und Vorlieben einen größeren Einfluss haben als reines maschinelles Lernen. Der Einfluss persönlicher Präferenzen überlagert sich mit der Verzerrung des Algorithmusmodells selbst, wodurch sich die negativen Auswirkungen der algorithmischen Verzerrung verdoppeln und das Auftreten algorithmischer Verzerrungen schwieriger zu verfolgen und zu verhindern ist. Um das Risiko algorithmischer Verzerrungen zu verhindern und zu beseitigen, sollte eine gezielte Governance auf der Grundlage der Prinzipien und Standorte durchgeführt werden, an denen algorithmische Verzerrungen auftreten. Es ist notwendig, die Anforderungen gesetzlicher Vorschriften tief in das Algorithmusmodell der generativen künstlichen Intelligenz zu verankern, die Technologie nachhaltig zu fördern, Algorithmenverzerrungen zu beseitigen, den rationellen Einsatz generativer künstlicher Intelligenzalgorithmen sicherzustellen und Rechenressourcen zuzuweisen. Basierend auf dem Konzept der Kombination von Technologie und Management werden wir die Sicherheitsüberwachung von Algorithmen im gesamten Zyklus stärken und die Anforderungen gesetzlicher Vorschriften in den gesamten Prozess des Betriebs generativer künstlicher Intelligenz implementieren. Zu Beginn der Einrichtung des Algorithmus ist es notwendig, relevante rechtliche Regeln und technische Standards zu befolgen, die normativen Anforderungen von „maschinellem Lernen + manueller Annotation“ umzusetzen, riskante Algorithmusmodule zu überprüfen und technische Risiken im generativen Algorithmus für künstliche Intelligenz besser zu erkennen Modell; wenn eine angeborene algorithmische Verzerrung vorliegt, werden Korrekturen innerhalb des Algorithmus der generativen künstlichen Intelligenz gemäß den gesetzlichen Anforderungen vorgenommen, um sicherzustellen, dass der geänderte Algorithmus normal ausgeführt werden kann, wenn danach Probleme auftreten durchgeführt, um eine präzise Zuordnung und Korrektur zu erreichen. Förderung und Verbesserung der Algorithmenüberwachungsstandards für generative künstliche Intelligenz, Beseitigung der Mängel früherer präventiver Überprüfungen und gleichzeitiger Einsatz technischer und rechtlicher Mittel, um eine gleiche Betonung von Entwicklung und Management zu erreichen.
In der Generierungsphase der generativen künstlichen Intelligenz bestehen verschiedene Risiken, wie z. B. Risiken des geistigen Eigentums im Zusammenhang mit den generierten Produkten und Risiken des Missbrauchs der generierten Produkte. Da generative künstliche Intelligenz hochintelligent ist, kann sie eine automatische Inhaltszusammenstellung, intelligentes Polieren, multimodale Konvertierung und kreative Generierung realisieren und so die Produktionsmethode und das Bereitstellungsmodell von Inhalten direkt ändern. Im Vergleich zu früheren Systemen der künstlichen Intelligenz sind subversive Änderungen aufgetreten hat zu Problemen wie dem Eigentum an geistigen Eigentumsrechten und dem Schutz des geistigen Eigentums an generierten Produkten der generativen künstlichen Intelligenz geführt. Einige Leute glauben, dass die Produkte der generativen künstlichen Intelligenz die Schlussfolgerungen von Datenalgorithmen sind, bei denen es sich im Wesentlichen um Berechnungen und Nachahmungen und nicht um geistige Arbeit handelt, und dass sie nicht Gegenstand von Rechten des geistigen Eigentums werden können. Gegner glauben, dass generative künstliche Intelligenz die Struktur neuronaler Netze des menschlichen Gehirns simuliert, um Daten zu erhalten und auszugeben, und dass ihre ursprünglichen und innovativen Produkte durch Gesetze zum Schutz des geistigen Eigentums geschützt werden sollten. Gleichzeitig erhöht generative künstliche Intelligenz auch das Risiko von Streitigkeiten über geistiges Eigentum und die Schwierigkeit des Schutzes. Einige generierte Produkte können Inhalte enthalten, die die geistigen Eigentumsrechte anderer verletzen, oder sie können in Originalwerke mit vollständigen geistigen Eigentumsrechten verpackt werden durch Verarbeitung und andere Mittel, was zu Streitigkeiten über geistige Eigentumsrechte führt. Um damit verbundene Probleme zeitnah zu lösen, sollten die technischen Modelle und technischen Prinzipien der generativen künstlichen Intelligenz im Einklang mit den Standards des geistigen Eigentumsrechts inhaltlich analysiert werden, wenn die Technologie das Eingreifen des menschlichen Willens erfordert, um die erzeugten Produkte zu ermöglichen Um Originalität und Innovation hervorzurufen, sollten Rechte an geistigem Eigentum gewährt werden. Außerdem sollten die Eigentumsverhältnisse geklärt und der systematische Schutz der Rechte an geistigem Eigentum im Bereich der generativen künstlichen Intelligenz gestärkt werden Schutzrechte, um eine unbegrenzte Ausweitung des Schutzumfangs zu verhindern und die Förderung, Anwendung und technologische Entwicklung generativer künstlicher Intelligenz zu behindern. Es ist auch notwendig, das Management der Risiken des Missbrauchs von Produkten zu stärken. Beispielsweise müssen die Werke die Rolle der generativen künstlichen Intelligenz bei der Schöpfung des Autors klar identifizieren, und die präzise und normalisierte Überwachung von Tiefenfälschungen, KI-Gesichtsveränderungen und anderen generierten Produkten, die illegale Straftaten beinhalten können, wird gestärkt usw.
Generative künstliche Intelligenz hat viele diffuse Auswirkungen auf soziale Anwendungen. Zusätzlich zu den oben genannten Risiken gibt es viele andere Arten von Risiken, wie z. B. die Verschärfung der Informationsasymmetrie, die Vergrößerung der digitalen Kluft und die Beeinträchtigung der Interessen digital benachteiligter Gruppen. Um die negativen Auswirkungen neuer Technologien auf die gesellschaftliche Entwicklung zu minimieren, müssen Reaktionen auf der Grundlage realer Bedingungen erfolgen.
Generalsekretär Xi Jinping betonte: „Halten Sie sich für das Gute an Menschenorientierung und Weisheit.“ Gegenwärtig verändert sich die Technologie der künstlichen Intelligenz mit jedem Tag, was nicht nur die Produktion und den Lebensstil der Menschen tiefgreifend verändert, den Prozess der wirtschaftlichen und sozialen Entwicklung beschleunigt, sondern auch Auswirkungen auf rechtliche Normen, moralische Ethik, öffentliche Verwaltung usw. hat. Unter ihnen sind Bedrohungen der Privatsphäre und der Sicherheit persönlicher Informationen wichtige Themen, die Beachtung verdienen. Der „Beschluss“ der dritten Plenarsitzung des 20. Zentralkomitees der Kommunistischen Partei Chinas traf wichtige Vorkehrungen für die „Einrichtung eines Sicherheitsüberwachungssystems für künstliche Intelligenz.“ Der Schutz der Privatsphäre und der Sicherheit personenbezogener Daten ist ein wesentlicher Bestandteil der Sicherheitsüberwachung für künstliche Intelligenz . Der Datenschutz im Zeitalter der künstlichen Intelligenz muss gestärkt werden, um die Sicherheit personenbezogener Daten zu gewährleisten.
Im Zeitalter der künstlichen Intelligenz stehen Datenschutzrechte vor großen Herausforderungen. Privatsphäre bezieht sich auf den Frieden und den privaten Raum einer natürlichen Person im Privatleben, auf private Aktivitäten und auf private Informationen, von denen sie nicht möchte, dass andere sie erfahren. Das Bürgerliche Gesetzbuch legt fest: „Natürliche Personen genießen das Recht auf Privatsphäre. Keine Organisation oder Einzelperson darf die Privatsphäre anderer durch Spionage, Eindringen, Offenlegung, Offenlegung usw. verletzen.“ Das Recht auf Privatsphäre ist ein Kernelement von Persönlichkeitsrechte sind eine wichtige Grundlage für den Aufbau der persönlichen Würde. Nicht offengelegt zu werden und nicht bekannt zu sein sind die Kernforderungen des Persönlichkeitsrechts. Derzeit ist künstliche Intelligenz stillschweigend in alle Aspekte der Produktion und des Lebens der Menschen involviert, was zu vielen Anwendungsszenarien wie intelligenter medizinischer Versorgung, intelligentem Transport und intelligenten Empfehlungen führt. Bestimmte Mängel in der Technologie selbst und unvollkommene Regeln können nicht ignoriert werden. Vermeiden Sie Probleme mit Datenschutzverletzungen. Sammeln und verwenden Sie beispielsweise illegal persönliche Informationen, verwenden und analysieren Sie diese persönlichen Informationen, um häufig sogenannte „personalisierte“ „Präzisionswerbung“ zu verbreiten, persönliche Informationen an Dritte weiterzugeben, was dazu führt, dass das Privatleben häufig durch persönliche Spam-Informationen beeinträchtigt wird Informationen zur Durchführung von „Big Data“ „Töten Sie vertraute Personen“, um eine präzise Preisdiskriminierung von „ein Kunde, ein Preis“ zu erreichen, was dazu führt, dass Bürger Eigentumsverluste erleiden, indem sie desensibilisierte persönliche Informationen erneut identifizieren, was zu Datenlecks aufgrund unsachgemäßer Schutzmaßnahmen führt Der illegale Kauf und Verkauf personenbezogener Daten ist weit verbreitet und verletzt die Sicherheit personenbezogener Daten, indem er Stimmsimulationen, KI-Gesichtsveränderungen und andere Mittel nutzt, um Betrug und andere illegale und kriminelle Handlungen zu begehen ; und so weiter. Dies zeigt, dass die Verletzung von Persönlichkeitsrechten nicht nur die persönliche Würde der Bürger verletzt, sondern auch andere schwerwiegende soziale Folgen nach sich zieht.
Technische Merkmale der Deprivatisierung verschärfen die Risiken für die Sicherheit personenbezogener Daten. Zu Beginn der Anwendung künstlicher Intelligenz auf Basis von Big Data standen viele Menschen dieser neuen Technologie abwartend und skeptisch gegenüber. Da künstliche Intelligenz das Produkterlebnis und die psychologischen Gefühle der Benutzer durch anthropomorphe äußere Formen, personalisierte Servicebereitstellung und immersive interaktive Prozesse weiter verbessert, werden immer mehr Menschen nach und nach zu treuen Nutzern künstlicher Intelligenz und genießen alle Arten von Annehmlichkeiten, die künstliche Intelligenz mit sich bringt Du. Mit der Popularisierung der IoT-Technologie für die Mensch-Computer-Interaktion und die Vernetzung aller Dinge erweitern sich auch die Anwendungsszenarien künstlicher Intelligenz wie Smart Homes, Smart Offices, Smart Factories und Smart Driving digitalen Raum in Form von digitalen Menschen und übermitteln auch unwissentlich persönliche Informationen an künstliche Intelligenz. Die von Einzelpersonen im digitalen Raum hinterlassenen Spuren werden zu persönlichen Informationen digitalisiert und erfüllen für die Menschen eine wichtige Funktion als „Medium zur Verbindung mit der Welt“. Gleichzeitig neigt künstliche Intelligenz auch dazu, in großem Umfang personenbezogene Daten zu sammeln und zu nutzen, um die Servicequalität zu verbessern. All dies führt dazu, dass künstliche Intelligenz charakteristische technische Merkmale der Deprivatisierung aufweist. Auch im Fluss persönlicher Informationen, an den Benutzer künstlicher Intelligenz gewöhnt sind, werden Big Data, gemischt mit öffentlichen Daten und privaten Daten, abgebaut, integriert, analysiert und genutzt. Es ist für Menschen schwierig, diese Privatsphäre mit ihren eigenen Sinnen zu erkennen Rechte wurden verletzt und persönliche Daten wurden verletzt. Die Sicherheit ist einem höheren Risiko ausgesetzt.
Respektieren Sie individuelle Entscheidungen und bestehen Sie auf einer Einwilligung nach Aufklärung. Verschiedene Menschen haben unterschiedliche Akzeptanzniveaus dafür, dass personenbezogene Daten bekannt gemacht und verwendet werden. Individuelle Wünsche sollten respektiert werden und der Grundsatz der „informierten Einwilligung“ sollte wissenschaftlich und rational umgesetzt werden. Der Grundsatz der Einwilligung nach Aufklärung umfasst zwei Aspekte: Einwilligung nach Aufklärung und Einwilligung nach Aufklärung. Ohne umfassendes Wissen und Verständnis kann es keine echte Einwilligung geben. Information, Verständnis und Freiwilligkeit sind die drei Elemente des Grundsatzes der informierten Einwilligung. Auf der Grundlage vollständiger „Informierung“ können Einzelpersonen ihre „Einwilligung“ selbstständig zum Ausdruck bringen. Dies erfordert die Bereitstellung leicht verständlicher und klarer Anweisungen für den Einsatz künstlicher Intelligenz sowie die Einholung der Einwilligung der Nutzer zur Erhebung und Nutzung personenbezogener Daten. Wenn personenbezogene Daten zwischen verschiedenen Plattformen fließen, müssen Benutzer über den Umfang, das Ziel und die Nutzungsgrenzen des Datenflusses informiert werden. Für ein gutes und reibungsloses Benutzererlebnis kann den Benutzern auch die Möglichkeit gegeben werden, die Autorisierung auf einmal oder in mehreren Schritten durchzuführen. Benutzer sollten über den Umfang, die Art und Weise und den Zweck der Erhebung personenbezogener Daten sowie über die Weitergabe personenbezogener Daten informiert werden, und Benutzer sollten auch jederzeit die Möglichkeit haben, sich abzumelden. Bei der Analyse persönlicher Informationen sollten Benutzer durch Popup-Fenster oder andere Formulare in Echtzeit zur Aufmerksamkeit und Autorisierung aufgefordert werden. Auch die Festlegung des Datenlebenszyklus und die rechtzeitige Löschung personenbezogener Daten sind wirksame Möglichkeiten, die Sicherheit personenbezogener Daten zu schützen.
Verbessern Sie die technischen Mittel, um die Intelligenz dauerhaft sicherzustellen. Bei Problemen, die durch Technologie verursacht werden, müssen wir gut darin sein, Ideen für die Lösung von Problemen aus technischer Sicht zu entwickeln. Im Zeitalter der künstlichen Intelligenz stehen Datenschutzrechte vor Herausforderungen, und der direkte Auslöser ist die Weiterentwicklung der Technologie. Von der analytischen künstlichen Intelligenz bis zur generativen künstlichen Intelligenz kann jede iterative Aktualisierung der Technologie der künstlichen Intelligenz neue Auswirkungen auf die Datenschutzrechte haben. Daher müssen technische Lösungen eine Schlüsselposition einnehmen und Firewalls zum Schutz der Privatsphäre und der Sicherheit personenbezogener Daten durch Verbesserung der Datenbanksicherheit, Kerndatenverschlüsselung, Desensibilisierung personenbezogener Daten und anderer Technologien eingerichtet werden. Personenbezogene Daten durchlaufen im Allgemeinen drei Phasen der Erhebung, Speicherung und Nutzung, und diese drei Phasen können das Risiko einer Verletzung von Datenschutzrechten und der Sicherheit personenbezogener Daten bergen. Ein wirksamer technischer Schutz sollte entsprechend den unterschiedlichen Situationen personenbezogener Daten in verschiedenen Phasen durchgeführt werden. Stärken Sie in der Phase der Erfassung personenbezogener Daten die Förderung und Anwendung der Anonymisierungstechnologie. Obwohl die Erhebung personenbezogener Daten unvermeidbar ist, wird das Recht auf Privatsphäre nicht verletzt, solange diese anonymisiert sind und die personenbezogenen Daten nicht mit der Identität abgeglichen werden. In der Phase der Speicherung persönlicher Informationen muss die Verschlüsselungstechnologie verbessert werden. Derzeit gibt es zwei Hauptarten der Datenspeicherung: Datenbankspeicherung und Cloud-Speicherung. Einbruch und Diebstahl von außen sowie unbefugte Einsichtnahme, Nutzung und Weitergabe durch Insider stellen die größten Bedrohungen für die Sicherheit personenbezogener Daten während der Speicherungsphase dar. Es ist notwendig, die Datenverschlüsselung zu stärken und die Datenzugriffsrechte streng zu kontrollieren. Während der Phase der Nutzung personenbezogener Daten ist es notwendig, das Eingreifen, Eingreifen und Blockieren illegaler Nutzungen personenbezogener Daten in Echtzeit technisch zu verstärken, um den Datenschutzrechten und der Sicherheit personenbezogener Daten eine zusätzliche Schutzebene hinzuzufügen.
Da die Rechtsvorschriften meines Landes zunehmend perfektioniert werden und der Schutz weiter gestärkt wird, sind insbesondere das Bürgerliche Gesetzbuch und das Gesetz zum Schutz personenbezogener Daten, die detaillierte Bestimmungen zu Datenschutzrechten und zum Schutz personenbezogener Daten enthalten, in denen die Grenzen der Rechte und Pflichten bei der Verarbeitung personenbezogener Daten klargestellt werden , mein Land im Zeitalter der künstlichen Intelligenz Der rechtliche Schutz der Privatsphäre und der Sicherheit persönlicher Informationen wird sicherlich ein höheres Niveau erreichen und einen starken rechtlichen Schutz für die gesunde Entwicklung der künstlichen Intelligenz bieten und den Menschen besser zugute kommen.
Der Wohlstand von Wissenschaft und Technologie wird die Nation gedeihen lassen, und starke Wissenschaft und Technologie werden das Land stark machen. Seit dem 18. Nationalkongress der Kommunistischen Partei Chinas legt mein Land großen Wert auf die Entwicklung künstlicher Intelligenz, fördert aktiv die tiefe Integration von Internet, Big Data, künstlicher Intelligenz und der Realwirtschaft und kultiviert und erweitert intelligente Industrien. beschleunigte die Entwicklung neuer Produktivkräfte und gab neue Impulse für eine qualitativ hochwertige Entwicklung. Generalsekretär Xi Jinping betonte: „Wir müssen an der Einheit der Förderung von Entwicklung und Management gemäß den Gesetzen festhalten und nicht nur neue Technologien und neue Anwendungen wie künstliche Intelligenz, das Internet der Dinge und Kommunikationsnetze der nächsten Generation energisch fördern, sondern auch.“ Nutzen Sie auch aktiv Gesetze, Vorschriften und Standards, um die Anwendung neuer Technologien zu steuern.“ Um die künstliche Intelligenz energisch weiterzuentwickeln und das Niveau der Sicherheitsverwaltung für künstliche Intelligenz zu verbessern, müssen wir den wichtigen Einsatz der „Einrichtung eines Sicherheitsüberwachungssystems für künstliche Intelligenz“, der im „Beschluss“ der dritten Plenarsitzung des 20. Zentralkomitees der Vereinten Nationen vorgeschlagen wurde, vollständig umsetzen Kommunistische Partei Chinas, und erfassen Sie die Entwicklung der Trends der künstlichen Intelligenz genau, konzentrieren Sie sich auf die Spitzentechnologie der künstlichen Intelligenz und die damit verbundenen Risiken und Herausforderungen, stärken Sie zukunftsorientiertes Denken und suchen Sie ständig nach innovativen Lösungen für die Governance künstlicher Intelligenz.
Derzeit hat die generative künstliche Intelligenz ein neues Paradigma der Mensch-Computer-Interaktion geschaffen. Mit ihren leistungsstarken Interaktions-, Verständnis- und Generierungsfähigkeiten hat sie ein groß angelegtes natürliches Sprachmodell als Kernkomponente entwickelt, das Gedächtnis, Planung und Werkzeugnutzung integriert die Fähigkeit zur Wahrnehmung und zum Handeln Die Fähigkeiten künstlicher Agenten eröffnen enorme Perspektiven. Künstliche Intelligenz hat sich zur wichtigsten Spitzenforschungsrichtung der allgemeinen künstlichen Intelligenz und zu einem neuen Weg entwickelt, um dessen Entwicklung Technologieunternehmen konkurrieren. Es verwendet ein großes natürliches Sprachmodell als „intelligente Engine“ und zeichnet sich durch Autonomie, Anpassungsfähigkeit und Interaktivität aus. Es kann die Produktionseffizienz erheblich verbessern, die Benutzererfahrung verbessern, Entscheidungsunterstützung bieten, die über die menschlichen Fähigkeiten hinausgeht, und kann auf die Softwareentwicklung und -entwicklung angewendet werden wissenschaftliche Forschung und andere reale Szenarien. Obwohl sich die groß angelegte Kommerzialisierung noch in der vorläufigen Erforschungs- und Inkubationsphase befindet, haben Trends wie die virtuelle und reale Integration und die tiefgreifende Mensch-Computer-Interaktion, repräsentiert durch künstliche Intelligenz, eine wichtige richtungsweisende Bedeutung für die wirtschaftliche und soziale Entwicklung. Aufgrund technischer Einschränkungen können künstliche Wirkstoffe jedoch auch komplexe, dynamische und unvorhergesehene Risiken und Sorgen mit sich bringen.
Aus Sicht der Entwurfslogik muss künstliche Intelligenz über die Steuerungsseite kognitive Fähigkeiten erlangen, über die Sensorseite Informationen aus der Umgebung erhalten und nutzen und schließlich zu einem intelligenten System werden, das physische Einheiten wahrnimmt und auf der Grundlage der Aktion handelt Ende.
Auf der Steuerungsseite dient das groß angelegte natürliche Sprachmodell als „Gehirn“ des künstlichen Körpers. Es bildet durch das Lernen umfangreicher Daten das Speichermodul im künstlichen Körpersteuerungssystem. Es bestehen jedoch Risiken in Bezug auf die Zuverlässigkeit und Genauigkeit der generierten Inhalte. Beispielsweise entspricht der vom Modell generierte Inhalt möglicherweise nicht der Informationsquelle oder stimmt nicht mit der tatsächlichen Situation in der realen Welt überein, was aufgrund menschlicher Voreingenommenheit in den Trainingsdaten zu sogenannten „Maschinenhalluzinationen“ führen kann faire Entscheidungsfindung künstlicher Intelligenz usw.
Um explizite und implizite Informationen in bestimmten Situationen vollständig zu verstehen und menschliche Absichten genau wahrzunehmen, erweitern Agenten der künstlichen Intelligenz auf der Wahrnehmungsseite den Wahrnehmungsbereich vom reinen Text auf multimodale Felder, einschließlich Text-, visuelle und auditive Modi. Obwohl dies die Entscheidungsfähigkeit verbessert, kann es bei der Integration und Analyse von Daten aus mehreren Quellen aus verschiedenen Kanälen und Typen zu einer Reihe von Datenschutzlücken und Datensicherheitsrisiken führen. Beispielsweise kann die missbräuchliche Verwendung und Weitergabe hochgradig personalisierter und dauerhafter biometrischer Daten wie Gesichtsinformationen, Fingerabdrücke und Stimmabdrücke zu langfristigen oder sogar dauerhaften Risiken für die Privatsphäre führen. Um komplexe Aufgaben besser bewältigen zu können, werden Multiagentensysteme, die mehrere künstliche Agenten einsetzen, um zu planen, zusammenzuarbeiten und sogar zu konkurrieren, um die Aufgabenleistung zu erledigen und zu verbessern, zum Mainstream und zur Normalität werden, um komplexe Aufgaben besser bewältigen zu können. Die Systeminteraktion mehrerer künstlicher Agenten kann unvorhergesehene systemische Sicherheitsrisiken verursachen. Selbst wenn jeder Algorithmus für sich genommen sicher und sinnvoll erscheint, kann die Kombination und Interaktion dennoch völlig unterschiedliche und unvorhersehbare Risiken hervorrufen, die sich schnell entwickeln und eskalieren können. Wenn beispielsweise an der Börse künstliche Intelligenz weit verbreitet ist und mehrere Algorithmen automatisch kleine Änderungen der Aktienkurse erkennen und gleichzeitig eine große Anzahl von Hochfrequenztransaktionen zur Arbitrage ausführen, kann dies einen systemischen Sicherheitsvorfall wie einen Flash-Crash auslösen an der Börse.
Auf der mobilen Seite werden künstliche Agenten, die in realen physischen Umgebungen eingesetzt werden, wahrscheinlich in einem dreidimensionaleren und anthropomorpheren Bild dargestellt. Anders als der virtuelle Raum ist der reale Raum auf interaktive Lernmethoden angewiesen, um zu beobachten, zu lernen und zu handeln. Durch Feedback-basierte Lernoptimierungsfunktionen kann dies einen umfassenden und eingreifenden Ansatz für die Privatsphäre darstellen . Die Risiken von Sex und Unsichtbarkeit. Beispielsweise kann die Interpretation der Körpersprache von Benutzern und die Wahrnehmung komplexerer Benutzeraktivitäten sowie die fortgesetzte heimliche Erfassung von Daten ohne Benutzerautorisierung zu enormen Datensicherheitsrisiken führen, sobald eine Sicherheitslücke im System besteht. Darüber hinaus kann die zunehmende Autonomie der künstlichen Intelligenz nicht nur die menschliche Wahrnehmung und Emotionen beeinträchtigen und beeinflussen, sondern auch die Fähigkeiten und den Status des Menschen als unabhängige Entscheidungsträger und unabhängige Akteure in Frage stellen. Einige Chatbots erzeugen beispielsweise Ausgaben, die die Emotionen der Benutzer während der Interaktion mit Benutzern beeinflussen, manchmal auf negative und manipulative Weise.
Angesichts der Risiken und Herausforderungen, die künstliche Intelligenz-Agenten mit sich bringen, ist es notwendig, innovative Governance-Lösungen zu erforschen, um sicherzustellen, dass das Sicherheitsüberwachungssystem künstlicher Intelligenz wirksam ist, um das Verhalten künstlicher Agenten an menschliche Absichten und Werte anzupassen. Die Entwicklung der künstlichen Intelligenz befindet sich in einer kritischen Phase „von Null auf Eins“. Der Governance-Plan sollte in der Lage sein, als Reaktion auf sich ständig ändernde Veränderungen unverändert zu bleiben und sicherzustellen, dass die Entwicklung und Anwendung der Technologie stets auf einem kontrollierbaren Weg verläuft. Entwicklung, Schulung, Einsatz, Betrieb und Service von Agenten der künstlichen Intelligenz haben eine hochspezialisierte Arbeitsteilung durchlaufen und eine komplexe hierarchische Struktur gebildet. Jede Schicht hat unterschiedliche Teilnehmer, Stakeholder und potenzielle Risikofaktoren, was den Einheiten der künstlichen Intelligenz die Merkmale einer „modularen“ Industriekette verleiht. Daher kann ein modulares Governance-Framework erstellt werden, das die gesamte Industriekette und jede Endschicht abdeckt, und entsprechende Governance-Module werden ausgehend von Schlüsselknoten wie Datenmodulen, Algorithmusmodulen und Modellarchitekturen entworfen. Beispielsweise können im Bereitstellungsprozess verschiedene Governance-Module flexibel ausgewählt und entsprechend den Merkmalen des Anwendungsszenarios und des Bereitstellungsmodus gemeinsam kombiniert werden, um eine passende Governance-Lösung aufzubauen. Das modulare Governance-Framework bietet eine funktionsfähige Zerlegungsmethode. Durch die Zerlegung von Governance-Zielen in relativ unabhängige, aber gekoppelte Governance-Module wird schrittweise die Bildung eines Governance-Systems gefördert, das nicht nur die Flexibilität und Relevanz der Governance verbessert, sondern auch deren Flexibilität und Relevanz Es kann sich auch an schnelle Technologieiterationen anpassen. Beim Aufbau von Governance-Modulen auf der Grundlage von Dimensionen wie Daten, Algorithmen, Modellen und Szenarien sollte Technologie eingesetzt werden, um die Aufsicht zu stärken und intelligente Governance-Tools zu schaffen, die mit dem modularen Governance-Framework künstlicher Intelligenzeinheiten kompatibel sind, wodurch Risikodynamiken und Spannungen überbrückt werden zwischen regulatorischen Statiken ermöglicht eine präzise Steuerung spezifischer Hochrisikoszenarien.
Es ist notwendig, ein interaktives Governance-Ökosystem für Einheiten der künstlichen Intelligenz aufzubauen. Agenten der künstlichen Intelligenz sind äußerst interaktiv, hochgradig vernetzt und dynamisch anpassbar. Dementsprechend sollten Governance-Methoden über die traditionelle, auf den Einzelnen ausgerichtete Governance hinausgehen und die Bildung eines Governance-Ökosystems mit umfassender Vernetzung, Beteiligung mehrerer Parteien und Zusammenarbeit auf mehreren Ebenen fördern. Unter ihnen werden technische Gemeinschaften wie technische Entwickler sowie Betriebs- und Wartungspersonal eine wichtige „Whistleblower“-Rolle bei der Steuerung von Einheiten der künstlichen Intelligenz spielen. Die Aufsichtsvorteile der technischen Gemeinschaft sollten besser genutzt werden, um einen wirksamen Beschränkungsmechanismus innerhalb von Unternehmen der künstlichen Intelligenz aufzubauen. Wir sollten auch die digitale Kompetenz der Mehrheit der Benutzer aktiv verbessern, ihr Bewusstsein für den legalen, sicheren und verantwortungsvollen Einsatz künstlicher Intelligenz schärfen, eine positive Interaktion mit künstlicher Intelligenz erreichen und die Bildung eines aufstrebenden und guten Betriebszustands fördern.