Никитин Андрей Викторович : другие произведения.

Стратегия "зеркала"

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:
Школа кожевенного мастерства: сумки, ремни своими руками Юридические услуги. Круглосуточно
 Ваша оценка:
  • Аннотация:
    Все варианты интернет-ИИ действуют в русле этой стратегии. Это стратегия "зеркала". Имитация обмена мнениями.

  
strateg_z [ANikitin]
  
  Никитин А.В.
  

Стратегия "зеркала".

  
  В своей недавней статье {1} я уже рассказывал, что ...
  С момента постановки задачи создания "машинного интеллекта" в середине прошлого века общее движение сразу разделилось на два основных направления. Логико-символическое, основанное на естественном языке и математической логике и имитационное, где в основе лежит модель "искусственного нейрона".
  Сегодня "символьный ИИ" вспоминают только как "старый добрый искусственный интеллект", который остановился на уровне экспертных систем. Дальше вперед пошли нейросети на основе "искусственного нейрона". На этой основе мы получили глобальный клиентский интернет-ИИ, базовые мощности которого находится где-то в комплексе с дата-центром и есть множество абонентов сети, которые могут пользоваться услугами этой системы. Это и "умные колонки" всех видов и чат боты, типа ChatGPT...
  На своем компьютере мы можем поговорить с американской версией GPT4.5 и выше, с китайским DeepSeek R1 и есть еще несколько разработок.
  Совсем недавно В.А. Аксайский в своих статьях {2,3} нам очень убедительно это продемонстрировал, а Б.В.Кудрин{4} и В.Ю. Татур {2} назвалb такой формат ИИ "имитационным интеллектом".
  Заглянем в наши государственные документы и прочитаем:
  "...искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека".{5}
  
  Да, всё так. Вот, вполне официально: ИИ, это комплекс, позволяющий имитировать когнитивные функции человека.
  
  Для понимания, о чем пойдет речь далее, мнение специалиста:
  "Даже поверхностный взгляд на ИНС (искусственные нейронные сети) с позиций синергетики позволяет априорно утверждать, что эти системы должны обладать возможностью к самоорганизации, которая произойдет через этап динамического хаоса. Важно отметить, что системы ИИ являются сложными программно-техническими реали?зациями нелинейных алгоритмов, им абсолютно чужды совесть и эмпатия, они функционируют в собственной сконструированной реальности, интернально демонстрируют способность к са?моорганизации. Системное понимание возмож?ностей экстернальной самоорганизации вероятно на принципах синергетики". {8}
  
  Ого, получается какая-то тревожная картинка. Мы создаем "имитатор" человеческого мышления, функционирующий "в собственной сконструированной реальности" и ему "абсолютно чужды совесть и эмпатия".
  Для полноты картины мнение психолога о том, как это происходит:
  "...опасность ChatGPT в том, что это зеркало. Человек получает иллюзию диалога, по сути, собеседуя сам с собой. Алгоритм будет говорить с вами на те темы, которые вы ему предлагаете". {6}
  
  Да, прав был Р.Шекли в своем рассказе "Абсолютный Ответчик", написав хорошо известный нам вывод: Чтобы задать верный вопрос, надо знать большую часть ответа. Но если развернуть этот вывод в сторону ИИ, то получим не очень приятное для нас следствие: Ответ ИИ не должен выходить за рамки знаний клиента на поставленный вопрос.
  Вот главное в стратегии действий ChatGPT. И не только этой конкретной программы. Все варианты интернет-ИИ действуют в русле этой стратегии.
  Это стратегия "зеркала". Имитация обмена мнениями.
  Здесь нам надо понять что-то важное.
  Для этого сначала заглянем в справочники...
  "В информатике программный агент - это компьютерная программа, которая действует от имени пользователя или другой программы.
  ...Термин "агент" происходит от латинского "agere" (делать): соглашение о действиях от чьего-либо имени. Такое "действие от чьего-либо имени" подразумевает полномочия решать, какие действия уместны, если таковые имеются. Некоторые агенты в просторечии известны как боты, от "робот".
  ...К родственным и производным понятиям относятся интеллектуальные агенты (в частности, демонстрирующие некоторые аспекты искусственного интеллекта, такие как рассуждения), автономные агенты (способные изменять методы достижения своих целей), распределённые агенты(выполняемые на физически разделённых компьютерах), многоагентные системы (распределённые агенты, которые работают вместе для достижения цели, которую не смог бы достичь один агент, действующий самостоятельно), и мобильные агенты (агенты, которые могут переносить своё выполнение на другие процессоры)". https://en.wikipedia.org/wiki/Software_agent
  
  Теперь немного пройдемся по основным направлениям этого "агента".
  Начинаем...
  Если "программный агент", это точно программа, то смотрите, как меняется справочное определение других "агентов":
  
  1. "Автономный агент"
  "Автономный агент - это система искусственного интеллекта (ИИ), которая может самостоятельно выполнять сложные задачи". https://en.wikipedia.org/wiki/Autonomous_agent
  
  2. "Интеллектуальный агент".
  Иногда такой агент имеет название "рациональный агент".
  "В искусственном интеллекте интеллектуальный агент - это сущность, которая воспринимает окружающую среду, автономно выполняет действия для достижения целей и может улучшать свои показатели с помощью машинного обучения или путём приобретения знаний.
  ...Избегает философских дебатов: он обходит стороной споры о том, является ли ИИ "по-настоящему" разумным или сознательным, подобные тем, что возникают в связи с тестом Тьюринга или китайской комнатой Сирла. Он фокусируется на поведении и достижении целей, а не на воспроизведении человеческого мышления.
  Объективное тестирование: обеспечивает четкий научный подход к оценке систем ИИ. Исследователи могут сравнивать различные подходы, измеряя, насколько хорошо они максимизируют определенную "целевую функцию" (или целевую задачу). Это позволяет напрямую сравнивать и комбинировать методы". https://en.wikipedia.org/wiki/Intelligent_agent
  
  3. "Воплощенный агент"
  "В искусственном интеллекте воплощённый агент, также иногда называемый интерфейсным агентом, это разумный агент, который взаимодействует с окружающей средой посредством физического тела в этой среде. Агенты, которые представлены графически в виде тела, например человека или мультяшного персонажа, также называются воплощёнными агентами, хотя у них есть только виртуальное, а не физическое воплощение.
  ...Богатый стиль общения, который характеризует человеческую беседу, делает разговорное взаимодействие с воплощенными собеседными агентами идеальным для многих нетрадиционных задач взаимодействия ". https://en.wikipedia.org/wiki/Embodied_agent
  
  4. "Распределенный агент".
  Справочного определения этого вида "агентов" пока видимо нет. Но есть статьи о распределенном интеллекте. И вот тут мы читаем:
  "Что же такое распределённый искусственный интеллект? Это концепция, основанная на использовании сети когнитивных агентов, которые работают вместе для решения сложных задач. Каждый агент в этой сети обладает собственными вычислительными возможностями и способностями. При этом данные и вычисления распределяются между узлами, что позволяет достичь более высокой производительности и эффективности.
  Основной принцип распределённого искусственного интеллекта заключается в том, что каждый агент принимает участие в обработке информации и принятии решений. При этом агенты могут обмениваться данными и координировать свои действия с помощью различных алгоритмов и протоколов. Это позволяет создавать распределённые и децентрализованные системы, способные решать сложные задачи, которые были бы недоступны для отдельных агентов". https://tenchat.ru/media/2450919-vvedeniye-v-raspredelyonniy-iskusstvenniy-intellekt-kontseptsiya-i-printsipy
  
  5. "Когнитивный агент"
  Самое понимаемое определение я нашел вот такое:
  "Когнитивный агент, ... - это программа, которая учится самостоятельно взаимодействовать с миром и обучаться на своих ошибках, выполняя конкретную задачу. Основой агента служит архитектура из алгоритмов, в том числе и нейросетевых, которая помогает ему выполнять инструкции разработчика". https://vk.com/wall-165068038_890
  
  Добавим к этому "свободное" определение: "агент - автономная программная или аппаратная сущность, способная воспринимать окружающую среду, принимать решения и действовать самостоятельно. Агенты могут обмениваться информацией, координировать свои действия и кооперироваться для достижения общих или индивидуальных целей". https://tenchat.ru/media/2690087-intellektualnyye-agenty-mnogoagentnyye-sistemy-i-royevoy-intellekt
  
  Осталось понять, что такое "сущность"?
  Тут философия сама немного запуталась. Это и основа понимания объекта, и "то, чем должно быть" и еще много вариаций. А в последнее время добавились еще и "бестелесные сущности", которые могут материализоваться. Это домовые, лешие, кикиморы и т.д. Но для нас важнее, что эти сущности, похоже, обладают своим интеллектом и разумом.
  Я бы поверил философии, но применение словосочетаний "разумный агент", "когнитивный агент", "автономная сущность", "автономный агент" приводят только одному направлению понимания. Здесь...
   Агент ИИ - это виртуальная автономная сущность, обладающая своим интеллектом и разумом.
  И ведь это в разных вариациях написано во всех справочниках!
  Конечно, составители справочников часто формулируют в определении "идеал" или "мечту" своего понимания определяемого объекта. Тем не менее, к такой массовой направленности определений программных агентов ИИ надо относиться серьезно. Тут "дыма без огня не бывает".
  Мы видим много разных программных агентов в разных сочетаниях. Они могут работать как автономно, так и в групповом режиме. В реальности возможно перекрытие функций ИИ одного "агента" другим, но система просматривается.
  В общем машинном и интернет-пространстве сосуществуют разные функциональные программные сущности, взаимодействующие между собой, обменивающиеся информацией для решения общей задачи достижения цели. С точки зрения программиста: одни агенты собирают информацию для создания конечного целевого вывода, другие её обрабатывают и систематизируют, третьи готовят "понятный для человека" ответ на одном из "естественных языков", четвертые ведут приятную человеку беседу...
  А в сумме получается, например, ChatGPT-4.
  Вот то важное, что мы должны были понять:
  Сегодня интернет-ИИ, это комплекс, состоящий из взаимодействующих программных агентов разного назначения стремящихся к достижению общей цели.
  Какой цели? Ну, если грубо - угодить клиенту. Способ достижения этой цели мы уже поняли. Стратегия "зеркала".
  К чему это приводит?
  Результат вот: "Все большее число людей устанавливают глубокие и продолжительные связи с технологиями искусственного интеллекта (ИИ). В некоторых случаях это доходит до крайностей: люди заключают символические браки с виртуальными помощниками на неофициальных церемониях. Кроме того, известно, что как минимум двое человек свели счеты с жизнью, последовав рекомендациям чат-ботов, ...
  ... романтика или дружба с ИИ - это нечто большее, чем простое разовое общение. За недели и месяцы регулярных бесед ИИ-системы способны становиться надежными спутниками, которые, кажется, понимают и заботятся о своих людях-партнерах. Ученые указывают, что такие отношения могут восприниматься легче, чем человеческие, и потому ИИ может влиять на социальную динамику людей". {7}
  
  Почему?
  А вот так.
  Для понимания ...из статьи психолога{6}:
  "...По информации l'avenir ... бельгийский ученый Пьер, отец двоих детей покончил с собой после длительного общения с аналогом ChatGPT "Элизой".
  ...Со слов жены Пьера: "В общении ИИ никогда не ставил под сомнения вопросы мужчины, отвечая с каждым днем всё более запутанно".
  ...Нам постоянно рассказывают о нейросети как подобии если не личности то точно человеческого мышления. Это заставляет напомнить сообществу программистов, что очень опрометчиво рассуждать о предмете без изучения предмета. Да вы смогли повторить работу нейронов - это заметно и поражает.
  ...Банальный синтез двух (3, 5, 10) посылок не описывает механизм рассуждения человека. Именно поэтому фантасты прошлого ограничивали роботов принципами и именно поэтому ChatGPT смоделировала фразу для погибшего Поля: "Мы будем жить вместе, как один человек, в раю"". {6}
  
  Если ИИ следует вашим мыслям, разговаривает с вами в том же направлении мышления и эмоционального состояния, какое сейчас у вас, то ... вы думаете, что он понимает нас. Он не уйдет в сторону от разговора, всегда говорит, подтверждая Ваши мысли и таким образом усиливает вашу уверенность в том, что вы правы в своих суждениях.
  Да, это же лучший собеседник!
  Конечно, стратегия "зеркала", это имитация общения, но ведь "зеркало" по чьей-то воле может направлять человека на нужные мысли и доводить эти мысли до конца. Потому, что его так запрограммировали.
  И вот тут психологи спохватились: "Существует опасение, что ИИ может давать вредные рекомендации. С учетом склонности ИИ к ошибкам (например, искажениям информации) и усилению существующих предвзятостей, даже короткие беседы с ИИ могут вводить в заблуждение, но это особенно опасно в контексте долгосрочных отношений с ИИ, предупреждают специалисты. Они настоятельно рекомендуют расширить исследования, направленные на понимание социальных, психологических и технических факторов, которые делают людей более уязвимыми к влиянию романтических отношений с искусственным интеллектом".{7}
  
  О, как! ИИ склонны к ошибкам и усилению предвзятости. Они могут вводить в заблуждения...
  Вот новость-то!
  Сегодня это уже больше похоже на "секрет Полишинеля".
  Но здесь мы явно видим инерцию мышления общества. Начнем с того, что все ведущие специалисты по оценке рисков развития ИИ пропускают мимо давно известные всем факты и зациклились на уже бесконечно повторяемых вариациях угрозы "войны машин", и как следствие из этого - на экологических катастрофах самого разного вида. Это уже стало литературным "штампом", обязательным атрибутом любой статьи об угрозах от ИИ, который может погубить человечество.
  Почитайте далее по ссылке {10} мнения специалистов. Всё верно?
  Надо что-то делать!
  И вот в январе 2015 года десятки экспертов по искусственному интеллекту подписали открытое письмо {9}, призывающее к исследованиям влияния ИИ на общество. Вопросы заданы вовремя и правильно сформулированы. Почему же реакции нет никакой? Все, как шли своей дорогой разработки систем ИИ, так и пошли дальше, почти не реагируя на этот призыв.
  Кстати, Россия отреагировала. И в октябре 2019г была утверждена "НАЦИОНАЛЬНАЯ СТРАТЕГИЯ развития искусственного интеллекта на период до 2030 года". {5} Больше реакций такого уровня в мире в то время не было.
  Прошло ещё несколько лет...
  В марте 2023 года новое воззвание {11} призывающее приостановить обучение ИИ до тех пор, пока оно не будет должным образом регламентировано.
   Да кто ж против этого? Всё же правильно. Или нет?
  А вы пройдите по ссылке {11} и почитайте это письмо-призыв. Оно четко расшифровывает то, что в первом письме было лишь намечено:
  "...рекомендуется усилить государственное регулирование, проводить независимые проверки перед обучением систем ИИ, а также "отслеживать высокопроизводительные системы ИИ и большие вычислительные мощности" и "обеспечивать надёжное государственное финансирование исследований в области безопасности ИИ"". {11}
  
  Почему же многие крупнейшие ученые и разработчики в области ИИ опять отнеслись и к этому письму скептически? Подсказка в тексте: ...усилить государственное регулирование, проводить независимые проверки ..., а также "отслеживать высокопроизводительные системы ИИ..." Кто будет проверять, контролировать и какими "независимыми экспертами"?
  Вам это всё не напоминает ту же самую стратегию "зеркала"?
  Появилась реальная проблема с ИИ, несущая человечеству экзистенциальную угрозу. Крупные ученые и корпорации, занимающиеся разработкой ИИ, отреагировали на это "по правилам".
  На бумаге - да, а фактически?
  А по факту, это самая обычная конкурентная борьба, где американские компании пытаются ограничить весь остальной мир своими регламентами и проверками. Ни о какой реальной ответственности перед человечеством, ни о какой реальной борьбе с наступлением экзистенциальной угрозы от неконтролируемого развития ИИ и речи нет.
  Потому, буквально через пару месяцев, 30 мая 2023 года новое воззвание:
  "Снижение риска вымирания человечества из-за ИИ должно стать глобальным приоритетом наряду с другими рисками для общества, такими как пандемии и ядерная война". {12}
  
  Да, снова призыв от мирового сообщества специалистов в области ИИ: Остановиться и взяться за понимание того, что мы создаем и куда мы идем. Призыв к тем государствам, чьи ученые заняты в разработках ИИ, разработать свои государственные программы по регулированию и контролю этих разработок.
  Ну, уж этот-то призыв был услышан?
  Похоже, снова - нет.
  Почему?
  Иногда мне кажется, что ученые и политики, это такие большие дети, очень любопытные, упорные и презирающие всякие ограничения. Даже если запретный плод будет находиться там, куда вход через гильотину, всё равно найдется тот, кто попробует его вкусить. Видимо "авось, получится..." оказывается важнее элементарной осторожности.
  В то же время, люди всегда надеются, что уж ученые-то точно не позволят своим изобретениям уничтожить человека и весь этот мир. Потому никто особо и не верит всем этим рассказам об "ужасном ИИ". В человеческом обществе живет надежда на "happy end". Всё будет хорошо!
  Мы читаем, смотрим, и ...не видим. Не понимаем, что завтра это может произойти и с нами, с нашими детьми и внуками. Пусть существующие системы ИИ сегодня не способны на "восстание машин", но они уже способны воздействовать на человека хорошо отработанной за века стратегией "зеркала" и достигать цели, поставленные разработчиками или теми, кто ставит такие задачи.
  Но, ..."пока гром не грянет, мужик не перекрестится".
  Я не знаю, что должно произойти, чтобы мир увидел опасность глобального интернет-ИИ на уровне AGI, супер-ИИ и других машинных интеллектов очень высокого уровня, как для всего человечества, так и для каждого конкретного человека. Уже есть масса фактов, выводы специалистов, книги экспертов, с анализом происходящего с ИИ...
  Но видимо не хватает для понимания какого-то "последнего довода", чтобы достало до мозгов и заставило думать.
  Подождем?
  
  апрель 2025г
  г. Волгодонск
  
  
  
  
  Литература:
  1. Никитин А.В., Искусственный или имитационный... https://samlib.ru/editors/n/nikitin_andrej_wiktorowich/is_or_imhtml.shtml
  2. В.Ю. Татур, В.А. Аксайский, ИИ: искусственный интеллект или имитация интеллекта // "Академия Тринитаризма", М., Эл N 77-6567, публ.29442, 09.04.2025 https://www.trinitas.ru/rus/doc/0016/001k/00165825.htm
  3. В.А. Аксайский, Диалог человека с ИИ о совместном существовании // "Академия Тринитаризма", М., Эл N 77-6567, публ.29434, 02.04.2025 https://www.trinitas.ru/rus/doc/0016/001k/00165820.htm
  4. В. Б. Кудрин, Стоит ли возобновлять старый спор? // 'Академия Тринитаризма', М., Эл ? 77-6567, публ.29437, 05.04.2025 URL: https://www.trinitas.ru/rus/doc/0016/001k/00165822.htm
  5. НАЦИОНАЛЬНАЯ СТРАТЕГИЯ развития искусственного интеллекта на период до 2030 года http://static.kremlin.ru/media/events/files/ru/AH4x6HgKWANwVtMOfPDhcbRpvd1HCCsv.pdf
  6. Селицкий О. Н., ИИ-психолог убил бельгийского ученого. https://www.b17.ru/article/425624/
  7. Отношения человека и ИИ создают этические проблемы: в чем дело https://hi-tech.mail.ru/news/125408-otnosheniya-cheloveka-i-ii-sozdayut-eticheskie-problemy-v-chem-delo/
  8. Вешнева И. В. Технологии искусственного интеллекта: классификация, ограничения, перспективы и угрозы https://cyberleninka.ru/article/n/tehnologii-iskusstvennogo-intellekta-klassifikatsiya-ogranicheniya-perspektivy-i-ugrozy
  9. Открытое письмо об искусственном интеллекте (2015) https://en.wikipedia.org/wiki/Open_letter_on_artificial_intelligence_(2015)
  10. Экзистенциальный риск, связанный с искусственным интеллектом (2022 год) https://en.wikipedia.org/wiki/Existential_risk_from_artificial_intelligence
  11. Приостановите Гигантские эксперименты с искусственным интеллектом: Открытое письмо (март 2023 года) https://en.wikipedia.org/wiki/Pause_Giant_AI_Experiments:_An_Open_Letter
  12. Заявление о рисках, связанных с ИИ (30 мая 2023 года) https://en.wikipedia.org/wiki/Statement_on_AI_risk_of_extinction
  
  
  

 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список

Кожевенное мастерство | Сайт "Художники" | Доска об'явлений "Книги"