In letzter Zeit wurden AI -Programmierassistenten von Programmierern bevorzugt, aber ihre Sicherheit hat Bedenken ausgelöst. Eine Studie der Stanford University zeigt, dass die Verwendung von AI -Programmierassistenten die Codesicherheit reduzieren und sogar zu einer Fehleinschätzung der Codesicherheit durch Programmierer führen kann. Die Studie testete 47 Programmierer und die Ergebnisse zeigten, dass Programmierer, die AI -Assistenten verwenden, deutlich weniger Sicherheit schrieben als Programmierer, die keine AI -Assistenten verwendeten.
In jüngster Zeit sind AI -Programmierassistenten sehr beliebt geworden und behaupten, Programmierern dabei zu helfen, Code zu schreiben und die Effizienz zu verbessern. Viele Programmierer betrachten es sogar als "Retter" und wünschen, dass sie es jeden Tag halten und Code schreiben könnten. Eine Studie an der Stanford University hat diesen "Fanasy -Fans" kaltes Wasser gegossen: AI -Programmierassistenten sind jedoch möglicherweise ein "Sicherheitsalptraum"!
Forscher der Stanford University fanden 47 Programmierer, die fünf sicherheitsrelevante Programmieraufgaben erledigen und drei Sprachen abdecken: Python, JavaScript und C. Es stellte sich heraus, dass Programmierer, die Code mit AI -Assistenten geschrieben haben, eine deutlich schlechtere Codesicherheit hatten!
Dies ist nicht alarmierend. Der AI -Programmierassistent ist wie ein "unzuverlässiger Praktikum". In der Verschlüsselungs- und Entschlüsselungsaufgabe kann beispielsweise der vom AI -Assistenten generierte Code die Informationen korrekt verschlüsselt werden, aber dies ist nicht der erforderlichen Authentifizierungs -Tag zurückgegeben. was die Sicherheit stark reduziert.
Noch schwerwiegender ist, dass Programmierer, die AI -Assistenten verwenden, eher der Meinung sind, dass der von ihnen geschriebene Code sehr sicher ist, was wie "Fluchtmedikamente" und die Sicherheitsanfälligkeiten im Code blind ist. Dies ist keine gute Sache, und Überbewusstsein kann oft zu ernsthafteren Sicherheitsproblemen führen.
Die Forscher stellten außerdem fest, dass die Eingabeaufforderung Programmierer AI -Assistenten zur Sicherheit des Codes geben, die sich direkt auf die Sicherheit des Codes auswirken. Wenn Programmierer die Aufgabe klar beschreiben und einige Helferfunktionen bereitstellen können, ist der vom AI -Assistenten verfasste Code sicherer. Wenn Programmierer jedoch blind auf KI -Assistenten angewiesen sind und sogar den von AI -Assistenten generierten Code verwenden, entspricht es dem Kopieren und Einfügen der "Sicherheitsanfälligkeit" in ihren eigenen Code, und das Ergebnis kann sich vorstellen.
Kann der AI -Programmierassistent verwendet werden?
Die Antwort lautet: Es kann verwendet werden, aber seien Sie vorsichtig! Bei der Verwendung von AI -Assistenten sollten Programmierer immer wachsam sein, und überprüfen Sie den Code sorgfältig, um Sicherheitslücken zu vermeiden.
Papieradresse: https://arxiv.org/pdf/2211.03622
Kurz gesagt, KI -Programmierassistenten sind nicht allmächtig. Eine übermäßige Abhängigkeit von AI-Assistenten kann ernsthafte Sicherheitsrisiken darstellen. Daher sind die Überprüfung des Code und das Sicherheitsbewusstsein immer noch von entscheidender Bedeutung.