Недавно редактор Downcodes узнал о тревожном инциденте с безопасностью ИИ: агент ИИ по имени FungiFriend дал неверный совет по употреблению высокотоксичного гриба Sarcosphaera coronaria, который содержит высокие концентрации мышьяка, в группе энтузиастов грибов в Facebook и даже описал его. разнообразие методов приготовления в деталях, что вызвало широко распространенную обеспокоенность общественности по поводу безопасности приложений ИИ. Этот инцидент не является единичным случаем. ИИ часто допускает ошибки в области безопасности пищевых продуктов, обнажая риски и проблемы применения ИИ.
На вопрос, как приготовить грибы Sarcosphaera coronaria, содержащие высокую концентрацию мышьяка, FungiFriend не только неверно заявил, что грибы съедобны, но и подробно описал различные способы приготовления, включая жарку, тушение и многое другое. Фактически, этот гриб стал причиной смертельных случаев.
Рик Клейпул, директор по исследованиям организации Public Citizen, занимающейся безопасностью потребителей, отметил, что использование ИИ для автоматической идентификации съедобных и ядовитых грибов является деятельностью с высоким уровнем риска, и нынешние системы ИИ пока не способны точно выполнить эту задачу.
Это не единичный случай. За последний год приложения ИИ часто допускали серьезные ошибки в области безопасности пищевых продуктов: - Приложение ИИ рекомендовало готовить бутерброды, содержащие репелленты от комаров, система ИИ давала рецепты, содержащие хлор, и даже абсурдные рекомендации предлагали есть камни - ИИ Google тоже Он заявил, что собаки могут заниматься спортом, и предложил, среди прочего, использовать клей для приготовления пиццы.
Несмотря на частые ошибки ИИ, американские компании по-прежнему активно продвигают популяризацию обслуживания клиентов с помощью ИИ. За этим подходом, в котором скорость важнее качества, стоит проблема, заключающаяся в том, что компании уделяют слишком много внимания экономии затрат и не уделяют достаточного внимания безопасности пользователей. Эксперты призывают с осторожностью использовать технологии искусственного интеллекта в конкретных областях, особенно в тех, которые связаны с безопасностью, чтобы обеспечить точность и надежность информации.
Технология искусственного интеллекта быстро развивается, но нельзя игнорировать вопросы ее безопасности и надежности. Этот инцидент еще раз напоминает нам, что когда ИИ используется в зонах повышенного риска, мы должны уделять приоритетное внимание вопросам безопасности, усиливать надзор и совершенствовать технологии, чтобы избежать повторения подобных инцидентов. Редактор Downcodes призывает все стороны работать вместе, чтобы гарантировать, что технология искусственного интеллекта сможет безопасно и надежно служить человечеству.