В последние годы технология искусственного интеллекта быстро развивалась, но она также принесла с собой новые проблемы — феномен «галлюцинаций» ИИ становится все более заметным. Случаи, когда системы искусственного интеллекта выдают ошибочную информацию, подделывают данные и даже выдают опасные предложения, являются обычным явлением, что серьезно влияет на корпоративную репутацию и интересы. Редактор Downcodes познакомит вас со начинающей компанией и ее инновационными продуктами, призванными решить эту проблему.
Сегодня, с бурным развитием искусственного интеллекта, «галлюцинации» ИИ становятся все более частыми, доставляя значительные неприятности многим компаниям. Чат-боты службы поддержки клиентов уверенно описывают несуществующие продукты, финансовый искусственный интеллект фабрикует рыночные данные, а медицинские боты предлагают опасные медицинские советы. Эти проблемы уже не просто анекдоты, а серьезные скрытые опасности, которые влияют на репутацию и прибыльность компании.
Чтобы решить эту проблему, стартап Patronus AI из Сан-Франциско объявил о запуске первой в мире платформы самообслуживания, предназначенной для обнаружения и предотвращения сбоев систем искусственного интеллекта в режиме реального времени. Платформа действует как «проверка орфографии» для систем искусственного интеллекта, выявляя проблемы еще до их возникновения.
Ананд Каннаппан, генеральный директор Patronus AI, сказал в интервью, что многие компании сталкиваются со сбоями ИИ в производственных средах, включая галлюцинации, дыры в безопасности и непредсказуемое поведение. Согласно исследованию компании, ведущие модели искусственного интеллекта, такие как GPT-4, имеют 44%-ную вероятность дублирования контента, защищенного авторским правом, при появлении соответствующего запроса, и даже продвинутые модели имеют более чем 20%-ную вероятность создания небезопасного контента в базовых тестах безопасности.
Чтобы помочь предприятиям повысить безопасность своих систем искусственного интеллекта, Patronus AI предоставляет ряд инновационных функций. Среди них наиболее важная функция «оценщика» позволяет компаниям писать индивидуальные правила оценки на простом английском языке. Такая гибкость позволяет компаниям из разных отраслей приспосабливаться к своим потребностям: от компаний, предоставляющих финансовые услуги, которые уделяют особое внимание соблюдению требований, до организаций здравоохранения, которые уделяют особое внимание конфиденциальности пациентов и медицинской точности.
В основе платформы лежит революционная модель обнаружения галлюцинаций под названием Lynx, которая на 8,3% точнее, чем GPT-4, в выявлении медицинских неточностей. Кроме того, платформа имеет два режима работы: один для мониторинга в реальном времени, а другой для углубленного анализа. В дополнение к традиционной проверке ошибок компания также разработала специальные инструменты, такие как CopyrightCatcher (инструмент обнаружения авторских прав) и FinanceBench (тест для оценки финансовой эффективности), чтобы предоставить предприятиям комплексную защиту от ошибок ИИ.
Чтобы сделать эти инструменты безопасности доступными для большего числа предприятий, Patronus AI использует модель ценообразования с оплатой по мере использования, начиная с 10 долларов США за 1000 вызовов API. Среди первых пользователей уже есть крупные предприятия, такие как HP, AngelList и Pearson, что демонстрирует важность, которую они придают инвестициям в безопасность ИИ.
Сегодня, с быстрым развитием искусственного интеллекта, такие инструменты, как платформа Patronus AI, могут не только помочь предприятиям снизить риски, но и помочь соблюдать будущие законы и правила. Поскольку системы искусственного интеллекта продолжают развиваться, то, как точно уловить и исправить эти «иллюзии», станет важной задачей для предприятий.
Вход по продукту: https://www.patronus.ai/
Появление Patronus AI предлагает новый способ решения проблемы иллюзий искусственного интеллекта. Его платформа самообслуживания и инновационные функции заслуживают внимания. Поскольку технология искусственного интеллекта продолжает развиваться, аналогичные инструменты безопасности искусственного интеллекта будут играть все более важную роль, помогая предприятиям лучше использовать технологию искусственного интеллекта и одновременно эффективно контролировать риски.