Быстрое развитие искусственного интеллекта принесло много удобств, но также представляет огромные риски. Недавно агент по искусственному искусству по имени «Fungifriend» дал неверные советы по приготовлению грибов в группе энтузиастов грибов в Facebook, которая почти вызвала катастрофу, подчеркивая риски безопасности ИИ, применяемого в области высокого риска. Инцидент вызвал общественные опасения по поводу безопасности ИИ и побудил людей пересмотреть границы применения технологии ИИ.
Недавно инцидент, произошедший в группе энтузиастов Facebook, снова вызвал опасения по поводу безопасности приложений искусственного интеллекта. Согласно 404Media, агент по искусственному искусству назвал «Fungifriend», проникший в группу «Северо -восточная идентификация и обсуждение грибов» с 13 000 членов и дал ложные предложения с потенциально смертельными рисками.
Когда его спросили, как приготовить грибы Sarcosphaera Coronaria, содержащие высокие концентрации мышьяка, Fungifriend не только по ошибке заявил, что гриб «съедобный», но также ввел различные методы приготовления, включая жаркую, жаркую, ратую и т. Д. На самом деле, этот гриб вызвал смертельные случаи.
Рик Клэйпул, директор по исследованиям в Общественной гражданине Организации потребителей, указал, что использование ИИ для автоматизации идентификации съедобных и токсичных грибов является «активностью высокого риска», и текущие системы ИИ не могут точно выполнить эту задачу.
Это не изолированный случай. В прошлом году приложения искусственного интеллекта часто совершали серьезные ошибки в области безопасности пищевых продуктов: - Некоторые приложения ИИ рекомендуют создавать бутерброды, содержащие репелленты комаров, и определенная система ИИ дает рецепты, содержащие хлор, и даже абсурдно ИИ также однажды он утверждал, что «собаки могут заниматься спортом» и предложил использовать клей для приготовления пиццы и т. Д.
Несмотря на частые ошибки ИИ, американские компании по -прежнему быстро продвигают популяризацию обслуживания клиентов ИИ. За этим подходом «фокусируется на скорости и качеством пренебрежения», отражает то, что компании чрезмерно обеспокоены экономией затрат и не имеют внимания на безопасность пользователей. Эксперты призывают предостерегать использовать технологию ИИ в определенных областях, особенно в тех, которые связаны с безопасностью, для обеспечения точности и надежности информации.
Инцидент «Fungifriend» звучал пробуждение, чтобы предупредить нас, что, наслаждаясь удобством ИИ, мы должны обратить внимание на его риски безопасности. В будущем технология ИИ должна быть проверена и регулирована, прежде чем она будет применена для обеспечения надежности и безопасности и избежать повторного происхождения аналогичных инцидентов. Только таким образом, преимущества ИИ могут быть по -настоящему использовать и избежать того, что он станет потенциальным вредом.