В настоящее время технология искусственного интеллекта развивается быстро, но ее надежность и проблемы безопасности также привлекают все больше внимания. Профессор Эрке Бойтен, профессор кибербезопасности в Университете де Монтфорда, поставил под сомнение надежность существующих систем ИИ, полагая, что они подвержены риску в важных приложениях. Он указал, что генеративные ИИ и крупные языковые модели на основе крупных нейронных сетей, таких как CHATGPT, имеют сложности, которые затрудняют прогноз и проверку их поведения, что делает его потенциально рискованным в приложениях, которые требуют чувства ответственности.
В текущей технологической среде искусственный интеллект (ИИ) вызвал широкое распространение дискуссии. Eerke Boiten, профессор кибербезопасности в Университете Де Монтфорда, сказал, что существующие системы ИИ имеют фундаментальные недостатки в управлении и надежности и не должны использоваться в важных приложениях.
Профессор Бойтен отметил, что большинство современных систем ИИ полагаются на крупные нейронные сети, особенно генеративные ИИ и крупные языковые модели (такие как CHATGPT). Принцип работы этих систем является относительно сложным.
С точки зрения разработки программного обеспечения, профессор Бойтен подчеркнул, что системы ИИ не имеют композиции и не могут быть разработаны модульно, как традиционное программное обеспечение. Без четкой внутренней структуры разработчики не могут эффективно сегментировать и управлять сложностью, и им также трудно провести пошаговое развитие или эффективное тестирование. Это делает проверку систем искусственного интеллекта, ограниченную общим тестированием, что чрезвычайно сложно из -за чрезмерного ввода и пространства состояния.
Кроме того, неправильное поведение систем ИИ часто трудно предсказать и исправить. Это означает, что даже если во время обучения возникают ошибки, переподготовка не гарантирует, что эти ошибки будут эффективно исправлены и могут даже представить новые проблемы. Поэтому профессор Бойтен считает, что в любом приложении, которое требует чувства ответственности, следует избегать современных систем ИИ.
Однако профессор Бойтен не полностью потерял надежду. Он считает, что, хотя нынешние генеративные системы ИИ, возможно, достигли узкого места, путем объединения символического интеллекта и ИИ на основе интуитивности, в будущем все еще возможно разработать более надежные системы ИИ. Эти новые системы могут генерировать некоторые четкие модели знаний или уровни доверия, которые повышают надежность ИИ в практических приложениях.
Взгляды профессора Бойтен вызвали глубокое мышление людей о надежности и применении искусственного интеллекта, а также указали на новый путь для будущего направления развития технологий искусственного интеллекта. При стремлении к достижениям в области технологий искусственного интеллекта нам необходимо придать большое значение его безопасности и надежности, чтобы гарантировать, что она может эффективно контролировать и управлять в приложениях и избежать потенциальных рисков.