70 лет назад в Массачусетском технологическом институте в США произошел знаменитый разговор, который раскрыл наше нынешнее затруднительное положение. Тогда Марвин Минск, пионер в области исследований искусственного интеллекта, заявил: «Мы хотим наделить машины интеллектом и сделать их самосознательными». Дуглас Энгельбарт, который изобрел текстовый процессор и мышь, ответил: «Вы хотите наделить машины». так много хорошего? Тогда что ты собираешься сделать для человечества?»
По сей день это, кажется, стало «темной тучей», нависшей над всеми людьми: от «Терминатора» до «Матрицы», «Я, робот» и «Мир Дикого Запада» бесчисленные научно-фантастические фильмы описывают чрезвычайно тревожную ситуацию. будущее – машины, обретшие самосознание, в свою очередь, захватят людей или даже уничтожат их. В последние годы быстрое развитие искусственного интеллекта (ИИ) заставило многих людей все больше беспокоиться о том, будут ли люди порабощены искусственным интеллектом?
Не просто «еще один инструмент»
Новая книга Юваля Харари «За пределами Homo Sapiens» довольно настороженно относится к этому и твердо верит, что это вполне возможно: люди создали силы, которые они не знают, как контролировать. Как только эти новые вещи выйдут из-под человеческого контроля, они, в свою очередь, поработят или истребят. человечество. По его мнению, нечеловеческий интеллект, порожденный компьютерными сетями, привел к появлению первой в истории технологии, которая может принимать решения самостоятельно и создавать новые идеи, которые могут оказать подрывное воздействие на порядок и систему нынешнего человеческого общества.
Разрушающее воздействие? Конечно, должно быть. Санстейн уже давно предупреждал в своей книге «Сетевая республика», что Интернет — это не просто технология. Его характеристики вызовут «совместную фильтрацию» и «групповую поляризацию», позволяя все большему количеству людей слышать только себя. Ответ со временем придет. деятельность общества в кризисе. Информационные коконы, которые мы видим сегодня, это подтвердили, мы все знаем, что это плохо, но вопрос в том, насколько это плохо?
По мнению Харари, проблемы искусственного интеллекта выходят далеко за рамки этого, поскольку он не просто «еще один инструмент», но и обладает потенциалом для освоения информационной сети для человеческого общения. Какими бы мощными ни были новые инструменты в прошлом, решение об их использовании принималось людьми. Однако искусственный интеллект впервые изменил ситуацию. Именно в этом заключается фатальная слабость человеческой цивилизации: «Хотя люди могут создавать крупномасштабные сети сотрудничества, чтобы получить огромную власть, способ построения этих сетей означает, что люди часто неразумно используют эти силы». Наша неспособность разумно контролировать такие сети рискует нашим собственным уничтожением.
Возникновение человеческой цивилизации зависит от сотрудничества, а сотрудничество должно опираться на обмен информацией, иначе никакое большое общество не будет возможным. С этой точки зрения все организационные формы в истории в основном опираются на набор слов, которые коллективно соблюдаются членами. Это «интерсубъективная реальность»: пока члены верят, что это «правда», это верно для них, а сотрудничество и доверие основаны на этом молчаливом консенсусе.
Теперь вот в чем проблема: искусственный интеллект не только обеспечивает техническую поддержку централизованного управления информацией, но и может самостоятельно создавать новые идеи. Благодаря независимому обучению алгоритм может изучать вещи, которые не записаны в программе, а также может. принимать решения самостоятельно. То, чего руководители не предусмотрели. Чем больше мы разговариваем с компьютерами и чем больше информации мы раскрываем, в конечном итоге программы-роботы смогут снабжать их мнениями, влиять на наше мнение и манипулировать человеческим обществом. «Компьютерам не нужно посылать роботов-убийц, чтобы стрелять в людей, им просто нужно. Просто манипулировать человеком, чтобы нажать на курок».
Чтобы избежать такой ужасной ситуации, самое главное — иметь сильный механизм самокоррекции, позволяющий постоянно выявлять и решать проблемы. Однако, как это обычно бывает в компьютерных программах, исправление ошибок часто приводит к появлению новых ошибок: «Хотя механизм самокоррекции способствует поиску истины, он значительно увеличивает затраты на поддержание порядка. Механизм самокоррекции слишком мощный. Часто возникают сомнения, разногласия, конфликты и разногласия: «Искусственный интеллект не может изменить закономерность социальной эволюции, но может заставить эту эволюцию пойти в опасном направлении.
На первый взгляд речь идет об искусственном интеллекте и информационных сетях. На самом деле, беспокойство заключается в том, сможет ли и как нынешняя социальная система справиться с таким воздействием. Харари подчеркнул остроту кризиса, но, возможно, преувеличил опасность. Он очень обеспокоен тем, что «силиконовый занавес» расколет человеческие компьютерные сети и создаст информационные коконы, которые трудно общаться друг с другом. Но с другой стороны, в плюралистическом мире не наивно ли полагать, что «... мир плоский» Вера? Информационный кокон, безусловно, приносит закрытие, но он также обеспечивает убежище для различных культур. В противном случае мы можем стать свидетелями исчезновения большого количества нишевых культур. Хотя на первый взгляд такая концентрация информации кажется благословенной благодаря технологиям, может ли со временем такая самоизоляция действительно иметь более сильную эндогенную силу и в конечном итоге противостоять динамичной открытой сети?
Выйдёт ли искусственный интеллект из-под контроля?
Нельзя отрицать, что его предупреждение действительно необходимо, тем более, что технологии часто опережают общественное сознание, и слишком многие люди не способны осознать, что на самом деле означает искусственный интеллект. Тридцать лет назад конгрессмен США Эдвард Марки сказал следующее: «Хорошая новость из Вашингтона заключается в том, что все в Конгрессе поддерживают идею информационной супермагистрали. Плохая новость в том, что никто не знает, что это значит». глупость политиков, но на самом деле всякая новая вещь имеет эту особенность. Когда зародилось книгопечатание, люди никогда не предполагали, что оно породит бесчисленные книги, архивы, изобретение банкнот и еще несколько; что инструменты чата социального программного обеспечения развились настолько далеко и имеют так много функций, что мы не можем жить без них.
Другими словами, влияние новых вещей проявляется постепенно, и никто не может с самого начала предугадать, какие сложные и далеко идущие социальные последствия это в конечном итоге будет иметь. Харари прав в одном: ключ лежит в механизме самокоррекции общества, а не в том, чтобы слишком остро реагировать, когда возникает проблема, и в желании задушить это опасное новое изобретение в колыбели, чтобы не допустить, чтобы оно вызвало еще большие катастрофы в его собственной жизни; мнение Мы очень обеспокоены тем, что саморазвитие искусственного интеллекта выходит из-под контроля человека. Мы изначально хотели получить А, но в итоге получили Б – однако почему «непредвиденные последствия» не могут быть хорошими?
Беспокойство по поводу возможной негативной реакции на творения человека имеет давнюю традицию в западной культуре, вытекающую из логики бинарной оппозиции между субъектом и объектом. «Монстр Франкенштейна», изображенный в новаторских произведениях современной научной фантастики, является такой историей. Эта озабоченность, безусловно, необходима, но означает ли такая «контролируемая эволюция» также и то, что верхний предел человеческого интеллекта станет пределом технологического прогресса?
Кевин Келли также предвидит в книге «Из-под контроля: Последняя судьба и конец всего человечества», что люди могут потерять контроль над машинами: «Высвобождая силу жизни в машины, которые мы создаем, мы теряем контроль над Их контролем. Они обретают дикость. и получить несколько сюрпризов и неожиданностей. Тогда возникает дилемма, с которой должны столкнуться все творцы: они больше не будут полностью владеть своим самым гордым творением». Однако он этого не делает. Он не считает, что такого будущего стоит опасаться. напротив, он считает, что необходимо отказаться от некоторого контроля и позволить машинам самостоятельно имитировать «естественную эволюцию»: «Эволюция может позволить нам превзойти наши собственные способности планирования; эволюция может создавать вещи, которые мы не можем создать; эволюция может достичь более совершенное состояние; эволюция может позаботиться о мире, о котором мы не можем позаботиться. Но... цена эволюции — потеря контроля».
Научитесь сосуществовать друг с другом
Да, искусственный интеллект может оказать глубокое влияние на нынешнюю социальную систему, но он должен быть нацелен на само общество, а не на технологии, поскольку характеристики компьютерных сетей часто зависят не от технологий, а от собственных характеристик социальных сетей. Грубо говоря, какое общество породит какие информационные сети и приложения искусственного интеллекта. Мы могли бы быть откровенными и не обвинять технологии.
Это не означает, что нам не нужно беспокоиться о том, что искусственный интеллект выйдет из-под контроля, но это означает, что, по крайней мере на данном этапе, его применение и развитие все еще зависят от самого общества. Это похоже на деление клеток в нашем организме, позволяющее организмам расти, адаптироваться, восстанавливаться и восстанавливаться, что позволяет нам выживать. Но как только этот механизм будет захвачен раковыми клетками и произойдет аномальный рост клеток, это станет фатальным для человеческого организма. Нам не нужно говорить о раке, и мы не можем сидеть сложа руки и расслабляться. Вместо этого нам нужно найти способ ладить с клетками, устраняя мутантные клетки, не нанося ущерба нормальному росту.
Поскольку мы не можем уничтожить искусственный интеллект и не хотим, чтобы он нас уничтожил, то вместо того, чтобы рассматривать это как борьбу за контроль, нам следует больше узнать о логике биологии и научиться сосуществовать друг с другом.