Как заставить искусственный интеллект достичь когнитивной справедливости
Автор:Eve Cole
Время обновления:2024-11-22 17:54:01
За последние годы искусственный интеллект нашел применение во многих отраслях и стал «добрым помощником» человечества. Но в этом процессе возникли и различные проблемы. Среди них система искусственного интеллекта генерирует ошибочные «знания» на основе плохих источников данных и дефектной конструкции алгоритмов, не имеет возможности выносить оценочные суждения о выходном содержании и не может брать на себя соответствующие когнитивные обязанности, что приводит к системным когнитивным искажениям. является довольно заметной проблемой. С точки зрения научной и технологической этики это нарушает принцип когнитивной справедливости. Так называемая когнитивная справедливость означает обеспечение того, чтобы голоса всех людей и групп были справедливо услышаны и поняты в процессе генерации, распространения и приобретения знаний, а также имели равные возможности для преобразования в общедоступные знания человечества. В прошлом генерирование знаний в основном опиралось на восприятие, память, рассуждения и свидетельства людей. Однако с быстрым развитием искусственного интеллекта, особенно с широким применением диалогового искусственного интеллекта, традиционные методы создания и распространения знаний претерпевают серьезные изменения. Сегодняшний искусственный интеллект не только хорош в сборе информации и выполнении задач, но и является «когнитивной технологией», которая может генерировать и распространять знания. Он используется для обработки когнитивного контента (например, предложений, моделей, данных) и выполнения когнитивных операций (таких как). как статистический анализ, распознавание образов, прогнозирование, умозаключения и моделирование). «Машинные знания», основанные на данных и алгоритмах, бросают вызов прошлым человеческим знаниям, основанным на опыте и профессиональных суждениях, что приводит к когнитивной «фрагментации» и подрывает когнитивную справедливость традиционных систем человеческих знаний. Сегодня генеративный искусственный интеллект начал полностью внедряться во все сценарии и социальные процессы, которые могут обеспечить техническую замену познания и принятия решений. Столкнувшись с проблемой когнитивной справедливости, вызванной искусственным интеллектом в генерации знаний, как сделать искусственный интеллект умнее? Как сделать его помощником в улучшении познания и обеспечении хорошего состояния науки и техники? Автор считает, что необходимо начать с улучшения качества данных, улучшения разработки алгоритмов, оптимизации взаимодействия человека и машины и усиления этического управления. Ответственная разработка алгоритмов — это основная архитектура для достижения эпистемической справедливости. Являясь мощной когнитивной технологией, искусственный интеллект выявляет информационные закономерности и тенденции посредством интеллектуального анализа данных и статистического анализа, а также участвует в формировании общедоступных знаний. Поскольку алгоритм фокусируется на информационных шаблонах, которые часто встречаются в обучающих данных, данные, которые недостаточно распространены или недостаточно статистически надежны, часто упускаются из виду и исключаются, что не позволяет алгоритму полностью понять и отреагировать соответствующим образом. Разработка алгоритмов, основанная на статистических частотах, представляет собой особый вид «когнитивного слепого подчинения», что, в свою очередь, приводит к систематической маргинализации голосов некоторых групп. Этот недостаток конструкции не только ограничивает когнитивные возможности алгоритма, но и усугубляет неравенство и когнитивное угнетение в обществе, подрывая когнитивную справедливость. Основной причиной поведения «слепого подчинения» является отсутствие понимания культурных традиций различных групп в процессе разработки алгоритмов и обучения. Следовательно, помимо прозрачности и объяснимости алгоритмов, о которых мы часто говорим, разработка алгоритмов, отвечающих требованиям когнитивной справедливости, должна также учитывать когнитивное разнообразие, охватывающее различные сообщества. Предоставление качественных данных является инфраструктурой для реализации эпистемической справедливости. Еще одним важным фактором, заставляющим ИИ подрывать эпистемологическую справедливость, является качество данных. Большие данные являются когнитивной основой и основой принятия решений интеллектуальных технологий. Они могут более четко и интуитивно представлять характеристики и тенденции всех аспектов социальной жизни человека. Однако, в отличие от традиционных общедоступных знаний, данные не являются общими для людей. В частности, все эти данные размыты, что приводит к неравномерному качеству данных. Данные для обучения алгоритмам часто поступают из больших баз данных и сообществ в Интернете, и эти данные могут содержать предвзятость и дискриминацию. Генерация знаний с помощью искусственного интеллекта требует обеспечения того, чтобы источник данных был надежным, а содержание разнообразным, данные должны быть объективными, а данные должны постоянно отслеживаться и обновляться, чтобы справляться с новыми проблемами, вызванными социальными и культурными изменениями. Только при наличии высококачественных данных системы искусственного интеллекта могут обеспечить более точные знания и поддержку принятия решений в мультикультурных и сложных социальных структурах. Крупномасштабное сотрудничество человека и машины — эффективное средство достижения когнитивной справедливости. От трансляции сигналов в интерфейсах «мозг-компьютер» до совместных действий человека и машины, таких как интеллектуальное принятие медицинских решений и ИИ для науки, сотрудничество человека и машины на разных уровнях включает в себя когнитивные процессы, такие как передача, интерпретация и интеграция человеческих знаний и машинных знаний. знание. Учитывая типичные когнитивные характеристики людей и машин, крупномасштабное и рациональное «когнитивное разделение труда человек-машина» позволит эффективно избежать большего количества когнитивных предубеждений «человек-машина». Например, в научных исследованиях может быть такое разделение труда: люди ставят цели, выдвигают гипотезы и интерпретируют результаты и отвечают за творческое мышление, оперативное принятие решений, этическое суждение и интуитивное понимание. неструктурированных проблем, пока искусственный интеллект обрабатывает большие объемы структурированных данных, выполняет распознавание закономерностей и прогнозный анализ, чтобы выявить незамеченные закономерности и корреляции. В таком сотрудничестве ИИ становится скорее «партнером», вдохновляющим новые идеи, а не «машиной», генерирующей ошибочные знания. Этическое управление высокого уровня – это институциональная поддержка реализации когнитивной справедливости. Когнитивная справедливость требует создания разнообразных знаний, равного получения знаний, беспристрастного распространения знаний и ответственного использования знаний, и все это требует высокого уровня этического управления искусственным интеллектом. Что касается предприятий, то при разработке алгоритмов следует учитывать потребности и перспективы различных социальных групп, а также следует проводить непрерывный мониторинг рисков и оценку ценности алгоритмов, а также изучить модель этического краудсорсинга искусственного интеллекта, чтобы стимулировать исследователей и пользователей с разным опытом; участвовать в искусственном интеллекте. При исследовании и оценке интеллектуальных этических рисков этические риски можно своевременно устранить. Правительство должно активно поощрять преобразование частных данных в публичные, ускорять открытие и обмен публичными данными для всего общества, расширять разнообразие данных и повышать надежность данных; оно также должно искать социальные решения, чтобы справиться с потенциалом; этические риски, связанные с искусственным интеллектом, и создать систему, охватывающую гибкий механизм управления с дальновидным прогнозированием, оценкой в реальном времени и систематической корректировкой.