Георгиевич Юрий : другие произведения.

Кибернетика (глубокий смысл)

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:
Школа кожевенного мастерства: сумки, ремни своими руками
 Ваша оценка:
  • Аннотация:
    Часть неопубликованного обзорного текста по системным наукам и кибернетике, подготовленного ранее и для иных целей. Представлен более глубокий (и более важный) смысл кибернетики, чем привычное отождествление её с наукой о машинных вычислениях и постройкой вычислительных машин. Подраздел по борьбе с кибернетикой в СССР в обзоре тоже имеется, поскольку пропускать вроде бы нельзя, но краток до пунктирности, поскольку текст в целом всё же не об этом (здесь его нет). Вложенность заголовков пропала при помещении ворд-текста на СИ. Стилевые выделения терминов также пропали.


  -- Кибернетика
   Видимо, самым фундаментальным вкладом кибернетики является объяснение ею в терминах управления и информации целенаправленного поведения, как сущностной (эссенциальной) характеристики разума и жизни. [1]
   Петли отрицательной обратной связи, которые "пытаются" достичь и удержать целевое состояние, возможно оказалось истолковать, как базовую модель автономности как свойства живых организмов: их поведение, хотя и целенаправленное, не определяется строго влияниями окружающей среды или внутренними динамическими процессами. В каком-то смысле они есть "независимые акторы", имеющие "свободу воли". Таким образом, кибернетика предвосхитила многие последующие работы в робототехнике и автономных агентах, вплоть до того, что в популярном понимании "киборги" и "кибернетика" превратились лишь в красивые названия роботов и робототехники. [1]
   Помимо этого, кибернетика оказала ключевое влияние на возникновение различных современных отраслей знания, среди которых теория регулирования, теория автоматов, искусственный разум и искусственные нейронные сети когнитивной науки, машинное моделирование и симулирование, динамические системы и искусственная жизнь. Многие понятия, центральные для этих отраслей, такие, как сложность, самоорганизация, саморазмножение (self-reproduction), автономность, сети, коннекционизм и приспобляемость (adaptation), были впервые исследованы в кибернетике 1940-х - 1950-х годов. Примерами этого служат архитектуры вычислительных машин, теория игр и клеточные автоматы фон Неймана; изучение самоорганизации Эшби и фон Фёрстером; автономные роботы Брайтенберга; искусственные нейронные сети и перцептронные классификаторы Мак-Каллока. [1]
  -- Методология кибернетики
   Кибернетика уже при возникновении отбросила линейный функционализм как методику изучения любых достаточно сложных и организованных систем. Линейная функция предполагает независимость от всех переменных (представляющих, например, внешние условия), кроме одной. Это, конечно же, совершенно идеализированная ситуация, и это как раз то, что пересмотрела кибернетика. Но кибернетика первого порядка стала чем-то много большим, чем оправданием нелинейности; в ней были представлены способы понимания нелинейности и явно постулирована модель системы, как отдельной сущности, получающей обратные связи (обратные воздействия) и реагирующей на них. [2] Уточнение методологии кибернетики была сделано Бэйтсоном в "Кибернетическом разъяснении" как преимущественно содержащей отрицательные описания или объяснения явлений и событий, т. е., объяснения, почему та или иная возможности не осуществились -- в противовес обычному объяснению действительно осуществлённой возможности. [3]
  -- Эпистемология кибернетики
   На первый взгляд, существующее в логико-математическом аппарате кибернетики определение модели как гомоморфного отображения бытия как будто предполагает существование объективного соответствия между объектами действительного мира и их символическими представлениями в модели. Но это вело бы к "наивному реализму", в котором истинное знание рассматривается как точное отражение внешней действительности, не зависящее от наблюдателя. Разница оказывается в том, что в кибернетике гомоморфизм не сохраняет никакой объективной структуры внешнего мира, а лишь тип и взаимный порядок явлений, как они воспринимаются внутри системы. Кибернетическая система воспринимает лишь то, что ведёт к возможным отклонениям от её собственной цели. В этом смысле она неотъемлемо субъективна. Такая система не имеет ни "желания", ни возможности знать о том, что "объективно" существует во внешнем мире. Влияние внешнего мира на модель, создаваемую системой, ограничивается указанием тех моделей, которые дают некачественные предсказания. А поскольку некачественное предсказание необходимо даёт плохое (с плохими последствиями) управление, наличие плохого управления есть сигнал для системы о необходимости построить лучшую модель. [1]
  -- Процесс обучения и построение моделей
   Эпистемология кибернетики в своей основе имеет конструктивистский характер: знание не может быть пассивно поглощено из окружающей среды. Окружающая среда не "учит" и не "информирует" систему, она лишь искореняет неадекватные модели тем, что устраняет или наказывает систему, которая пользуется такими моделями. [1]
   На простейшем уровне устройства, построение модели происходит путём внесения изменения с последующим выбором варианта или же методом проб и ошибок. В простейших системах (например, в примитивных организмах, функционированием которых этот механизм обычно иллюстрируется) выбор оказывается сравнительно простым (из малого числа вариантов), но в более сложных системах количества возможных восприятий исчисляются миллионами, а возможные действия -- тысячами, так что числовая мера пространства возможных моделей или архитектур управления растёт очень быстро. [1]
   Информация, полученная из окружающей среды, и указывающая на успешность или неуспешность того или иного действия или предсказания, слишком ограничена, чтобы выбрать правильную модель из числа всех возможных. Так что работа по созданию правильной адекватной модели лежит в основном на самой системе, в которой могут понадобиться различные внутренние эвристики, комбинации ранее существовавших компонентов, и субъективные критерии выбора, чтобы эффективно строить модели, которые окажутся работоспособными с достаточно высокой вероятностью. [1]
   Естественный отбор организмов, очевидно, слишком расточительный способ формирования знаний, хотя он и является предпосылкой существования большей части суммы знаний, которую живые организмы несут в своих генах. Высшие организмы развили более эффективный способ построения моделей: обучение. В обучении состязание происходит между различными правилами внутри структуры управления одного и того же организма. Согласно их успешности в предсказании или в управлении возмущениями правила дифференцированно поощряются или закрепляются. Те из правил, которые получили наибольшее закрепление, в конечном итоге начинают господствовать над менее удачливыми. Это может истолковываться как регулировка на метауровне или как метасистемный переход, где цель теперь начинает определяться как минимизация воспринимаемой разницы между предлсказанием и наблюдением, а действия есть изменения в компонентах модели. [1]
   Для моделирования такого процесса обучения были предложены различные формализации, начиная с гомеостата Эшби, в котором для данного возмущения поиск производится не в пространстве возможных действий, а в пространстве переводов возможных наборов возмущений в правила действий. Более современные методики включают нейронные сети и генетические алгоритмы. В генетических сетях правила изменяются случайным образом и прерывно, посредством операторов, таких как мутация и рекомбинация. В нейронных сетях правила представляются непрестанно изменяющимися соединениями между узлами, соответствующими сенсорам, эффекторам и промежуточным когнитивным структурам. Хотя такие модели обучения и приспособления и возникли в кибернетике, они выросли в самостоятельные отрасли (точнее специализации) под такими названиями, как "машинное обучение" или открытие знаний" [1]
  -- Конструктивистская эпистемология
   Общий взгляд кибернетики таков, что живые системы это сложные, адаптивные, управляющиеся системы, вовлечённые в повторяющиеся отношения со своими окружениями. Поскольку кибернетика рассматривает такие глубокие вопросы как жизнь, разум, общество, то естественно, что она приходит к вопросам философии и, в особенности, эпистемологии.
   Поскольку, как уже отмечено , система не имеет доступа к тому, каков мир "на самом деле", то модели внутри неё это субъективные построения, а не объективные отражения окружающей действительности. И, насколько известно познающей системе, эти модели и есть её окружающая среда. Как заметили фон Фёрстер и Матурана, в нервной системе нет априорного различия между восприятием и галлюцинацией: и то, и другое лишь образцы нервного возбуждения. При доведении до крайности этот взгляд превращается в солипсизм (т. е., в невозможность отличить самосозданные идеи -- сны, воображение -- от восприятий, наведённых внешним окружением). Такого впадения в полный релятивизм, при котором всякая модель считается равно пригодной, можно избежать выставлением требований последовательности (coherence) и инвариантности (invariance). В первом требовании, хотя и не существует наблюдения, которое могло бы единолично подтвердить истинность модели, но различные наблюдения и модели могут взаимно подтверждать или поддерживать друг друга, наращивая таким образом свою совместную надёжность. Таким образом, чем более логически последовательным будет фрагмент знания в отношении всей прочей наличной информации, тем более он будет надёжным. Во втором требовании, восприятия кажутся более "настоящими", если они менее изменяются от наблюдения к наблюдению. Например, объект можно определить как такой аспект восприятия, который остаётся неизменным (инвариантным) в случае изменении точки зрения наблюдателя. А в формулировке фон Фёрстера, объект это собственное состояние (eigenstate) когнитивного преобразования. Кроме того, существует инвариантность относительно наблюдателя: если различные наблюдатели соглашаются насчёт восприятия или концепции, то это явление может считаться "настоящим" по консенсусу. Такой процесс достижения консенсуса насчёт совместно используемых концепций был назван "социальным построением (конструированием) реальности". Теория беседы Паска (conversation theory) предоставляет сложную формальную модель такого "разговорного" взаимодействия, итогом которого становится соглашение насчёт совместно признаваемых значений.
   Ещё одно следствие конструктивизма это то, что, поскольку все модели строятся неким наблюдателем, этот наблюдатель должен быть включён в модель ради её полноты. Это в особенности относится к тем случаям, в которых процесс построения модели воздействует на само моделируемое явление. Простейший пример это процесс наблюдения, который сам вносит возмущение в явление, как в квантовых измерениях или в "эффекте наблюдателя" в социальных науках. Иной тип ситуаций таков, что возмущения в явление вносят предсказания, сделанные моделью. Примерами являются самоисполняющие пророчества или модели социальных систем, применение которых в управляемой системе изменяет саму систему и, таким образом, делает неверной модель. Практическим примером этого служит модель, созданная сложнистом-теоретиком Артуром и имитирующая кажущееся хаотичным поведение систем, подобных финансовым рынкам. Модель состоит из агентов, которые непрестанно пытаются смоделировать будущее поведение системы, в которую они входят, и используют эти предсказания как основу своих собственных действий. Было сделано заключение, что здесь различные предсказательные стратегии взаимно уничтожаются, так что долговременное поведение такой системы становится неискоренимо (intrinsically) непредсказуемым. Наиболее логичным способом минимизации этих неопределённостей кажется построение метамодели, которая представляла бы различные возможные модели и их отношения с наблюдателями и с представленными ими явлениями. Например, по предложению Амплби, одним из измерений (размерностей) метамодели мог бы быть уровень, до которого наблюдение влияет на наблюдаемое явление, с классическими (независимыми от наблюдателя) наблюдениями в роли одной крайней точки на шкале, и с квантовым наблюдением, расположенным ближе к другой крайней точке. Однако, поскольку метамодель остаётся и моделью вообще, т. е., построенной наблюдателем, то она должна представлять сама себя. Это базовая форма самообращённости (самореферентности). Обобщая от фундаментальных эпистемологических ограничений, таких, как теорема Гёделя и принцип Гейзенберга, кибернетик Лёфгрен сформулировал принцип языковой дополнительности (linguistic complementarity), который предполагает, что всякое такое самообращение должно быть частичным: языки или модели не могут включать в себя полное представление того процесса, посредством которого их содержание (описание) соединено с тем явлением, которое должны описывать язык или модель. Хотя это и означает, что ни одна модель или метамодель никогда не может стать полной, в метамодели всё же предлагается более богатый и гибкий метод получения предсказаний или разрешения проблем, чем в случае любой модели конкретного объекта.
   Так что кибернетику как целое можно описать как попытку построить универсальную метамодель, которая помогла бы строить модели конкретных объектов для всякой конкретной системы или ситуации. [1]
  -- Кибернетика и искусственный разум
   Как и в случае вычислительных наук , встречается не вполне верное понятие о некой тождественности кибернетики и искусственного разума (ИР) или, как не вполне правильно называют эту область исследований, "искусственного интеллекта" (возможно, по причине звукового сходства английского "intelligence" и его русского -- близкого, но не точного -- соответствия "интеллект").
   Собственно искусственный разум определяется в "Энциклопедии кибернетики" (1974) как любая искусственно созданная система произвольной природы, предназначенная для решения сложных задач широкого класса; также как класс автономных технических систем, реализующих операции восприятия, хранения и переработки информации, и формирующих на этой основе целесообразное поведение [4].
   Разумность здесь оценивается, как правило, по аналогии с поведением человека при решении сопоставимых задач. Поэтому также вводят определение "разума" путём выделения основных программ переработки информации, свойственных человеческому мозгу: восприятие внешней информации, эмоциональная оценка, организация действий (по изменению положения системы во внешней среде или на изменение самой среды); программа речи. В какой-то мере особняком стоит программа сознания, в которой выделяют уровни: внимание -- выделение наиболее важной в данный момент информации; определение пространственных и временных взаимоотношений объектов, возможность предсказания их поведения; представление о собственном "я" и "не-я"; воля -- способность концентрировать и направлять внимание; воображение и способность различать реальное и нереальное. Воспроизведение данной программы в ИР обеспечивает определение пространственных, временных и причинно-следственных отношений системы и объектов внешнего мира. "Уровень сознания" характеризуется мерой сложности отношений, который может отразить система. Творчество -- создание новой информации. [4]
   Теоретические разработки ведутся в двух основных направлениях: 1) Проблема автоматизации отдельных интеллектуальных действий человека (игры, доказательства теорем и под.). Это направление, строго говоря, и известно под названием искусственный интеллект. Основное внимание здесь обращено на получение результата. Широко испульзуются эвристики. 2) Построение ИР путём моделирования его биологического прототипа -- человека. Системы должны вести себя как человек, так что возникают и соответствующие ограничения. Применяются два подхода к изучению мозга -- феноменологический (психология) и структурный (физиология ЦНС, нейропсихология). Используются эвристическое программирование, структурное моделирование мозга, нейронные сети, имитирующие свойства нервной системы. [4]
   Имея в виду такое понимание вопроса по состоянию на 1970-е годы наиважнейшим может считаться доказательство Виноградом и Флоресом (1985) того, что первоначально объявленная в ИР задача "построения разумных машин" невыполнима принципиально [5]. Более того, в философских основаниях кибернетики и ИР существуют принципиальные различия.
   Так, искусственный разум необходимо требует предположения о том, что знание есть движимость, которая может сохраняться внутри машины, и что применение такого сохранённого знания к внешнему миру составляет разум (см. Мински, 1968). Только в рамках такого "реалистического" взгляда на мир можно считать путём к "разумным машинам" такие конструкции, как семантические сети и экспертные системы, основанные на правилах. Кибернетика, наоборот, развилась из "конструктивистского" взгляда на мир (см. фон Глазерсфельд, 1987), в котором объективность выводится из совместного согласия относительно значения, и в котором информация (или даже разум) есть атрибут взаимодействия, а не некий материал, сохранённый в машине (см. Виноград, Флорес, 1985). Эти различия не сводятся к семантике, но составляют фундаментальное различие в истоках и направлениях исследований в отраслях "искусственного разума" и кибернетики. [6]
   Так, например, концепция "представления" понимается в кибернетике и ИР совершенно по-разному. В "реалистическом" подходе ИР ("мы познаём мир таким каким он есть используя нашу нервную систему") рассуждения оказыаются неотъемлемо редукционистскими. В "конструктивистском" подходе мир "изобретается" ( а не "открывается") разумом, действующим в согласии с социальной традицией и создающим совместно признаваемое значение посредством герменевтических (циркулярных, самоопределяющих) процессов. Импликации этих различий весьма значительны и относятся, между прочим, к новым попыткам машинного вопроизводства деятельности мозга (см. Хоукинс, 2004; IBM/EPFL 2004), которые продолжают восходить к парадигме "мозг как вычислительная машина". Эти подходы содержат всё те же ограничения, присущие цифровому символьному вычислению и, по мнению Пангаро, почти наверняка не смогут ни объяснить, ни вопроизвести функционирование центральной нервной системы. [6]
   Примечательно, что и искусственный разум, и кибернетика неоднократно попадали и выпадали из научной моды. Мак-Каллок и Питтс первыми предложили (1965) синтез нейрофизиологии и логики, связывающий возможности мозга и предел вычислимости Тюринга. Возникла указанная отрасль исследований искусственного разума, до какой-то степени перехватившая у кибернетики интерес научного сообщества; открылись работы по нейронным сетям или, по тогдашнему наименованию, перцептронам. Однако развитие вычислительной техники общего назначения и мода на символьные вычисления вытеснили исследования по перцептронам из моды ещё в 1960-е гг., и интерес к ним восстановился лишь в поздних 1980-х гг., после того, когда было доказано, что первоначально объявленная задача "построения разумных машин" принципиально невыполнима (работа Винограда и Флореса, 1985). Это и вызвало к жизни такие направления исследований по ИР, которые в чём-то повторяют прежние подходы кибернетики, но не тождественны им. [6]
  

 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список

Кожевенное мастерство | Сайт "Художники" | Доска об'явлений "Книги"