Derzeit entwickelt sich die künstliche Intelligenztechnologie rasant, aber ihre Zuverlässigkeits- und Sicherheitsprobleme ziehen auch zunehmend Aufmerksamkeit auf sich. Professor Eerke Boitten, Professor für Cybersicherheit an der Universität von De Montford, stellte die Zuverlässigkeit bestehender KI -Systeme in Frage und glaubte, dass sie in wichtigen Anwendungen gefährdet sind. Er wies darauf hin, dass generative KI und große Sprachmodelle, die auf großen neuronalen Netzwerken wie ChatGPT basieren, Komplexität aufweisen, die es schwierig machen, ihr Verhalten vorherzusagen und zu verifizieren, was es in Anwendungen, die ein Verantwortungsbewusstsein erfordern, möglicherweise riskant sind.
In der aktuellen technologischen Umgebung hat künstliche Intelligenz (KI) eine weit verbreitete Diskussion ausgelöst. Eerke Boitten, Cybersicherheitsprofessor an der Universität von De Montford, sagte, dass bestehende KI -Systeme grundlegende Mängel in Bezug auf das Management und die Zuverlässigkeit haben und nicht in wichtigen Anwendungen verwendet werden sollten.
Professor Boiten wies darauf hin, dass die meisten aktuellen KI -Systeme auf große neuronale Netzwerke, insbesondere generative KI und große Sprachmodelle (wie ChatGPT), angewiesen sind. Das Arbeitsprinzip dieser Systeme ist relativ komplex.
Aus der Sicht des Software -Engineering betonte Professor Boiten, dass KI -Systemen keine Komponierbarkeit fehlen und nicht modular wie herkömmliche Software entwickelt werden können. Ohne eine klare interne Struktur können Entwickler nicht effektiv die Komplexität segmentieren und verwalten, und es ist auch für sie schwierig, schrittweise Entwicklung oder effektive Tests durchzuführen. Dies macht die Überprüfung der KI -Systeme auf allgemeine Tests beschränkt, was aufgrund übermäßiger Input- und Zustandsraum äußerst schwierig ist.
Darüber hinaus ist das falsche Verhalten von KI -Systemen oft schwer vorherzusagen und zu beheben. Dies bedeutet, dass selbst wenn beim Training Fehler festgestellt werden, die Umschulung nicht garantiert, dass diese Fehler effektiv korrigiert werden und sogar neue Probleme verursachen können. Professor Boitten ist daher der Ansicht, dass in jeder Anwendung, die ein Verantwortungsbewusstsein erfordert, aktuelle KI -Systeme vermieden werden sollten.
Professor Boiten verlor jedoch nicht die Hoffnung. Er glaubt, dass die aktuellen generativen KI-Systeme zwar einen Engpass erreicht haben könnten, indem er symbolische Intelligenz und intuitive KI kombiniert hat, aber in Zukunft immer noch zuverlässigere KI-Systeme entwickeln kann. Diese neuen Systeme können einige klare Wissensmodelle oder Konfidenzniveaus erzeugen, die die Zuverlässigkeit der KI in praktischen Anwendungen verbessern.
Die Ansichten von Professor Boiten haben das tiefe Denken der Menschen über die Zuverlässigkeit und den Anwendungsbereich der künstlichen Intelligenz ausgelöst und auch einen neuen Weg für die zukünftige Entwicklungsrichtung der Technologie für künstliche Intelligenz erwähnt. Während wir Fortschritte in der Technologie für künstliche Intelligenz verfolgen, müssen wir der Sicherheit und Zuverlässigkeit von großer Bedeutung beibringen, um sicherzustellen, dass sie in Anwendungen effektiv kontrolliert und verwaltet werden und potenzielle Risiken vermeiden kann.