Почему академики из Китая и Сингапура на китайско-сингапурском семинаре по вопросам границ и управления искусственным интеллектом облили искусственный интеллект холодной водой?
Автор:Eve Cole
Время обновления:2024-11-15 12:24:01
С тех пор, как концепция искусственного интеллекта была впервые предложена в 1956 году, ИИ получил дальнейшее развитие в направлении когнитивного интеллекта, основанного на вычислительном интеллекте и перцептивном интеллекте. В последние годы, с появлением ChatGPT и sora, развитие ИИ стремительно продвигается вперед. Однако на китайско-сингапурском семинаре по вопросам границ и управления искусственным интеллектом, организованном Китайской инженерной академией и Сингапурской инженерной академией и организованном сегодня (28 октября) Университетом Тунцзи, многие академики вылили холодную воду на «лихорадку искусственного интеллекта». «Проблемы эндогенной сетевой безопасности всесторонне бросают вызов основной движущей парадигме сегодняшней цифровой экосистемы». сетевые охранники, охраняющие дома и дома престарелых, в настоящее время могут ответить на три основных вопроса о пытках души: «Есть ли какие-либо лазейки?», «Есть ли лазейки/лазейки?», «Есть ли несколько проблем с наложением средств безопасности?» Он серьезно отметил, что нынешняя система приложений ИИ имеет серьезный дисбаланс между обязанностями по обеспечению безопасности и рисками. Ни один торговец не может гарантировать, что их продукты не имеют уязвимостей безопасности и бэкдоров, и ни одно агентство по тестированию не может гарантировать, что продукты, представленные на проверку, не будут иметь уязвимостей и бэкдоров. Это стало неизбежным кошмаром для всех стран эпохи ИИ. На встрече многие эксперты проанализировали, что, казалось бы, мощный искусственный интеллект и большие модели также имеют недостатки с точки зрения потребления, безопасности и этики. Развитие искусственного интеллекта все еще продолжается, и еще есть много возможностей для развития. Ученые из Китая и Сингапура должны укреплять сотрудничество и работать вместе, чтобы помочь ИИ стать более энергосберегающим, безопасным и добродетельным. Казалось бы, мощный искусственный интеллект на самом деле полон скрытых опасностей. Когда дело доходит до угроз сетевой безопасности, многих людей особенно впечатлил инцидент с синим экраном Microsoft, произошедший в июле этого года. 19 июля пользователи из многих стран мира обнаружили, что на компьютерах их компании появился синий экран с сообщением: «На устройстве возникла проблема, и его необходимо перезагрузить». Впоследствии было подтверждено, что проблема с синим экраном связана с обновлением программного обеспечения. Компания сетевой безопасности Crowd Strike. По мнению У Цзянсина, это сеть. Типичный случай, когда «телохранители» наносят людям удары в спину. «Проблемы искусственного интеллекта и безопасности тесно связаны, а безопасность — это генетический недостаток, вызванный генетическим дефектом. мать в современной компьютерной архитектуре Необходимо уделять внимание вопросам безопасности операционной среды ИИ. " В этом отношении Чжэн Цинхуа, президент Университета Тунцзи и академик Китайской инженерной академии, придерживается той же точки зрения: «Хотя мы высоко оцениваем основные достижения больших моделей, мы также должны глубоко осознавать, что им присущи некоторые недостатки. большие модели». Чжэн Цинхуа привел пример. Первое представление — чрезмерное потребление данных и вычислительной мощности. «Однажды ценная информация, которую люди добывают из открытых источников в Интернете, достигнет потолка, точно так же, как люди добывают редкие металлы из минеральных ресурсов, наступит момент, когда она исчерпается». катастрофической забывчивости и слабой тяговой способности сцены. Чжэн Цинхуа объяснил, что крупные модели любят новое и ненавидят старое, и на одном примере сложно сделать выводы. Часто к А адаптироваться сложно, а к Б – сложно. Найти его непросто. баланс между ними. В-третьих, слабая способность к рассуждению. В большой модели используется авторегрессионный алгоритм обучения, что делает ее неспособной сформировать способность логического рассуждения на основе причинно-следственных рассуждений, построенных людьми. Метод авторегрессионной генерации также с трудом справляется со сложными задачами рассуждения, требующими обратного поиска и проб и ошибок, что часто приводит к тому, что большие модели усваивают неправильную информацию для решения задач. Это явление называется «эффектом Умного Ганса». Четвертый неотъемлемый недостаток заключается в том, что большая модель не знает, где и почему пошло не так, не говоря уже о том, чтобы исправить это, когда это известно. Чжэн Цинхуа прямо сказал, что эти присущие недостатки привели к таким проблемам, как галлюцинации и плохая управляемость в больших моделях. «Особенно в инженерных приложениях и других сценариях, где нам нужно знать, что происходит и почему, можно сказать, что большие модели бессильны». Вэнь Юнган, академик Сингапурской инженерной академии и профессор Наньянского технологического университета, считает, что человеческое общество вступает в период двойной трансформации эпохи цифровизации и устойчивого развития. Особенно в условиях цифровой трансформации большое количество видов деятельности перешло из офлайна в онлайн, что потребляет много вычислительных ресурсов и серверов. Прогнозы показывают, что к 2030 году потребление электроэнергии в центрах обработки данных Сингапура достигнет 12% от общего потребления электроэнергии обществом. Что еще более тревожно, так это то, что широкое использование искусственного интеллекта также приведет к увеличению объема выбросов углекислого газа и окажет разрушительное воздействие на окружающую среду. Направьте ИИ в правильном направлении. Когда ИИ бежит с закрытыми глазами, как люди, разработчики технологий, смогут ухватиться за руль? На встрече эксперты также дали реальные предложения, основанные на долгосрочных исследованиях. У Цзянгуан создает теории эндогенной безопасности и имитации защиты с 2013 года. Основываясь на теоретической основе, команда создала эндогенную архитектуру безопасности для расширения возможностей интеллектуальных систем вождения в лаборатории Нанкина. Система имеет более 20 сценариев применения и более 100 отдельных приложений. Уровень успешной идентификации составляет более 90 % по типичным проблемам искусственного интеллекта, таким как контратаки и уязвимости бэкдора. Чжэн Цинхуа сказал, что история и опыт доказали, что каждый прогресс человечества в науке о мозге имеет основу, вдохновение и руководство для исследования искусственных нейронных сетей и машинного интеллекта. «Сегодняшние большие модели — это лишь самые предварительные и простые ссылки на человеческий мозг. Если мы сможем получить более глубокие сведения из науки о мозге, особенно о механизмах представления памяти, активации, извлечения и кодирования воспоминаний, которые являются уникальными для человека, мы Ожидается, что они решат проблемы, с которыми сталкиваются сегодняшние крупные модели. «Поэтому он предложил: Китай должен иметь свою собственную модель машинного интеллекта». Университет Тунцзи в настоящее время открывает дисциплинарные границы, способствуя интеграции информатики и науки о мозге, изучая корреляцию между памятью человеческого мозга и машинной памятью, а также исследуя новые способы использования информатики для изучения науки о мозге. Сегодняшний искусственный интеллект сломал границы традиционных дисциплин и распространяется почти на все дисциплины. Го Гуйшэн, академик Сингапурской инженерной академии и профессор Сингапурского университета технологий и дизайна, также является членом Ассоциации AI-RAN. Понятно, что AI-RAN означает «Искусственный интеллект (AI) – сеть радиодоступа (RAN)» и представляет собой отраслевую ассоциацию, целью которой является оживление интеграции искусственного интеллекта и беспроводной связи, а также ведущих технологических инноваций. Го Гуйшэн сообщил, что большое количество проектов, связанных с искусственным интеллектом и квантовыми вычислениями, продвигаются посредством междисциплинарного взаимодействия. По его мнению, чтобы направить ИИ на добрые дела, необходимо не только вырваться из академических кругов, но и активно связаться с мировой мудростью. Он надеется, что в будущем больше лабораторий и компаний из китайских университетов присоединятся к кругу друзей в области ИИ и установят партнерские отношения. Репортер узнал, что Сингапур, как всемирно известная «столица искусственного интеллекта», был одной из первых стран в мире, которая запустила национальную стратегию искусственного интеллекта и провела много новаторских работ в области управления искусственным интеллектом. На месте происшествия Чжэн Цинхуа также предположил, что в будущем, если мы хотим реализовать прекрасную картину «у каждого есть интеллект, у машин есть интеллект, у каждого есть своя мудрость, а мудрость и мудрость являются общими», эксперты в области искусственный интеллект из Китая и Сингапура должен работать вместе, чтобы создать что-то для этого мира.