Рубрики
Artificial Intelligence Social Engineering Society

Эволюция ИБ и ИБ эволюции

Это мой доклад на нашей 9-ой ежегодной конференции «Информационная безопасность — взгляд изнутри компании» 18 марта 2026 года.

Расшифрую название: Все вокруг и мы сами эволюционируем. Информационная среда вокруг нас эволюционирует, меняется. И мы сами, как биологический вид, пытаемся адаптироваться к эволюции инвормационного пространства. Правда, такая ерунда получается!

Потому что скорость эволюции нас любимых в миллионы раз медленнее, чем эволюция информационных технологий. Человек нисколько физиологически не изменился за последние 30 тыс. лет (как утверждают антропологи). А информационное пространство вокруг нас за последние 100 лет изменилось совершенно радикально.

То есть мы, как вид, «не догоняем» развитие технологий. К чему это привело, об этом пока никто не пишет. Попробую предложить вам системный взгляд на эту проблему и показать, к чему это приведёт в ближайшем будущем.

И предложу концепцию «тепловой смерти» информационной вселенной. Смотрите:

Рубрики
Artificial Intelligence Society

Коллективный и индивидуальный разум

07-03-2026 Сергей Мартынов

У любого сообщества живых существ (от муравьёв и до людей) есть коллективный (или общественный) разум. Это знания и опыт, которые существуют отдельно от знаний и опыта отдельных особей – членов сообщества.

Общественный разум дан животным (и человеку в том числе) для того, чтобы преодолеть ограничения индивидуального разума. Люди обходят эти ограничения – отделяют знания от конкретных людей – с помощью внешних инструментов, начиная от наскальных картинок (петроглифов) и до книг, интернет поиска, соцсетей, LLM и т.д. Чем больше развивается общественный разум, тем меньше информации нужно хранить в голове одной особи. Особенно с появлением так называемого ИИ.

Проведите эксперимент. Отберите у современного человека доступ к интернет и оцените его интеллект. Сравнение с обыкновенной вороной будут не в пользу человека.

Что происходит с человеческим сообществом при развитии инструментов общественного разума?

Главный эффект: в результате развития инструментов общественного разума ресурсы мозга освобождаются от сложных знаний и затрат энергии и времени на их изучение. Нам уже не нужно хранить кучу знаний в голове и для этого изучать их с великим трудом.  Нужно только знать, как их найти в случае необходимости. Освободились колоссальные ресурсы мозга, которые человек раньше тратил на рутинные операции с информацией.

И что от этого изменилось?

По идее, освободившиеся ресурсы человек теперь должен тратить на получение более ценных знаний высокого уровня. Как это делали древние греки, переложив всю рутину на рабов.

А на самом деле?

Закон сохранения энергии никто не отменял. Любая биологическая система (в том числе и человек) стремится в состояние с наименьшим расходом энергии.  Изучать знания высокого уровня сложности – очень энергозатратно. При решении сложных задач, обучении мозг потребляет слишком много энергии, и вся физиология человека сопротивляется этому.  Поэтому заставлять мозг работать напряжённо никто не хочет. Даже если для этого есть свободные ресурсы.

Следствие, или эффект 1: человек стал тратить освободившиеся ресурсы мозга на получение развлекательного контента, который не напрягает мозг, и не расходует энергию, а даёт быстрое вознаграждение в виде выработки дофамина (как при просмотре смешного шортса в тик-ток). Повторилось то, что уже проходили: когда изобрели компьютер или смартфон, думали, что человек будет использовать его для самообразования и колоссально повысит свой интеллект. Эффект был строго обратный. Сейчас смартфоны достигли колоссальной мощности и способности решать сложнейшие задачи. Мы освободили колоссальные когнитивные ресурсы (нам больше не нужно держать в голове таблицу умножения, маршруты, даты и телефоны), но направили их не на получение более сложных знаний, а на бесконечный скроллинг ленты с котиками.

Интересный эксперимент провели в 2015 году. Оказалось, что у ос-одиночек размер мозга в полтора раза больше, чем у ос, живущих сообществами и использующих коллективный разум. В основном за счет отделов мозга, которые отвечают за интеграцию сенсорной информации, обучение, память и принятие сложных решений.

Почему же у тех, кто живет в обществе, ключевые отделы мозга меньше? Это правило работает для всех биологических объектов, от осы до человека.

Причина 1.  Закон «сохранения энергии». Мозг — очень энергозатратный орган. Содержать большой и мощный мозг каждому члену колонии — дорого. Если есть возможность (инструменты) создать общественное хранилище информации, то суммарные (и удельные) затраты энергии будут ниже. Любой биологический объект или сообщество следует правилу минимизации энергетических затрат и оптимизируется в этом направлении.

Причина 2. «Коллективный разум». В сообществе когнитивные функции распределены между всеми особями. Информацию, которую одна одиночная оса должна добыть, обработать и запомнить самостоятельно, общественная оса может получить в готовом виде от сородичей. А человек – из интернет.

Причина 3. «Специализация». Вместо того, чтобы быть «мастером на все руки», каждая особь может специализироваться на узком круге задач. Для этого не нужен такой мощный универсальный «процессор», как у осы-одиночки, которая вынуждена решать все проблемы самостоятельно.

Факт наличия коллективного разума коррелирует с уменьшением «высшего аналитического центра» в мозге насекомого. Конечно, такая эволюция ос проходила десятки миллионов лет, и мозг человека ещё не успел отреагировать на снижение когнитивной нагрузки таким явным образом. Хотя процесс неизбежен.

Пока же человек функционально деградировал (анатомическая эволюция — это долгий процесс), хотя физически размер мозга ещё не изменился.

Теперь уровень образования среднего человека можно описать одной фразой «Школа научила меня трем вещам: четать и песать».  За исключением старых пердунов, которые учились в докомпьютерную эру и скоро вымрут, как мамонты. Вместе со всякими артефактами типа «Война и мир» или «Капитал».

Второй эффект развития коллективного разума: человек стал использовать освободившиеся ресурсы мозга для переработки огромного количества «информационного мусора». Это информация, которая не несёт никакой реальной ценности для вас  (реклама на Youtube, например). Мы позволяем себе обрабатывать эту информацию ресурсами, которые могли бы использовать в более полезных целях. Наш неокортекс вынужден работать на пределе, чтобы отсеивать ложь, манипуляции, кликбейт и противоречивые данные. Впрочем, это тоже сложная когнитивная задача, и большинство себя ею не утруждает. Отсюда и огромное количество мошенников в сети. Впрочем, это другая тема.

Общество сегодня не поощряет получение или создание сложных знаний, а препятствует этому. В древней среде (саванна, племя из 150 человек) стимулы, которые активировали систему подкрепления (дофамин), были жестко привязаны к выживанию: новая информация (где еда?), социальный успех (кто главный?), новизна (что там за холмом?).

Выживание сегодня не зависит от знаний, и интернет и соцсети заменили эти древние факторы информационными суррогатами.

*   Новая информация? Обновление ленты СМИ каждую минуту.

*   Социальный сигнал? Лайк, комментарий, репост.

*   Новизна? Бесконечный поток мусорных мемов, видео, новостей.

Лайк — это аналог социального одобрения (потребность в значимости, по Маслоу), но он приходит каждые 5 секунд, а не раз в месяц на совете племени. Яркая картинка в ленте — аналог «новизны», но она требует не физического усилия (бежать к горизонту), а только движения пальцем.

Мозг говорит: «О! Это же тот самый древний стимул, за который надо хвататься!» — и выделяет дофамин. Мы чувствуем прилив энергии (готовность тратить жизнь) именно на это действие. А на чтение сложной книги, где награда (новое знание, понимание мира) отсрочена на часы или годы, дофаминовый отклик слабее.

Это подтверждается колоссальным временем, которое люди проводят в TikTok, Instagram и YouTube Shorts. Эти платформы оптимизированы для мгновенной дофаминовой отдачи без необходимости глубокой когнитивной обработки.

Мозг не отличает «полезное знание» (например, статью по химии) от «развлечения» (видео со срущим котом) на уровне первичного восприятия. Он видит: “новизна + социальная значимость”, хотя это суррогаты. Причём эти суррогаты не требуют напрягать мозги для понимания. И мозг охотно выделяет дофамин, подталкивая нас потреблять этот контент всё в большем объеме.

Вот и получается, что когнитивные ресурсы человека, освобожденные коллективным разумом, перехватываются индустрией развлечений. Это происходит потому, что наши древние мозговые механизмы поиска награды легко «взламываются» современными алгоритмами, предлагающими легкую и быструю дофаминовую стимуляцию.

Вам скажут: ну, всё нормально, просто сами знания заменяются способностями их искать. Успешен не тот, кто знает, а тот, кто знает, где найти.

Но поиск сущностей по названию не означает их понимания. Вы сможете найти способ решения сложной системы уравнений в интернет, и даже найти объяснение этого способа, но оно будет непонятно для вас, потому что опирается на термины и понятия, которых у вас нет в голове. То есть если LLM предложит вам неправильное решение или объяснение, вы даже не поймёте этого. Да и правильное тоже.

Пишут, что освободившиеся ресурсы мозга нужны для навигации в социальной среде невиданной ранее сложности. Мы должны одновременно отслеживать множество социальных контекстов (рабочий чат, чат с друзьями, комментарии в открытом профиле), понимать сигналы (эмодзи как замена мимике) и управлять самопрезентацией. Это тоже требует огромных затрат энергии и времени, хотя не создаёт «сложных знаний», необходимых для развития общества. Всё так, вот только большинство перерабатываемой вашим мозгом информации – просто информационный мусор.

Может ли человек сознательно выбрать путь получения «сложных знаний», а не малозатратных по расходам энергии развлечений?

Думаю, что это не вопрос свободного выбора, а вопрос “энергетического баланса”, который регулируется физиологией и жестко ограничен фундаментальным законом природы. И если стимулы, которые общество (коллективный разум) предъявляет индивиду, разрешают ему экономить энергию, он будет её экономить.

Современное общество препятствует созданию и распространению «сложных знаний».

Конечно, общество не говорит «знание — это плохо». Оно говорит: «знание — это дорого, долго и неудобно», и перераспределяет потоки энергии (внимания, денег, дофамина) в пользу более простых и быстро монетизируемых вещей.

В традиционных обществах (и даже в XX веке) носитель сложного знания — профессор, инженер, писатель — обладал высоким социальным статусом. К нему прислушивались, его уважали.

В современном обществе потребления и медийной культуры статус часто определяется не знанием, а узнаваемостью и потреблением.

Блогер с миллионом подписчиков (даже если он снимает распаковку игрушек) часто имеет больший социальный вес и влияние, чем лауреат научной премии.

Коллективный разум (лента соцсетей, алгоритмы) вознаграждает (лайками, репостами) не глубину, а эмоциональную реакцию и скорость реакции. Сложный текст требует вдумчивости, его сложнее быстро «лайкнуть». Короткая провокация или мем распространяются мгновенно.

Таким образом, социальный сигнал для молодого человека: хочешь быть популярным, заметным, значимым — иди в шоу-бизнес или блогинг, а не в науку или философию.

Современное общество не поощряет создание сложного знания. Оно:

1.  Не дает быстрой дофаминовой награды (в отличие от развлечений).

2.  Не гарантирует социального статуса (ученый против блогера).

3.  Плохо монетизируется (фундаментальная наука против прикладных IT-решений).

4.  Требует усилий, которые рынок внимания не готов вознаграждать.

Может ли развитие коллективного разума привести к разрушению цивилизации?

Безусловно, сегодняшние тенденции, если сохранятся, приведут к отсутствию новых сложных знаний. Кстати, все значимые фундаментальные открытия были сделаны в конце 19 – начале 20 века. За последние 50 лет наука имеет скорее эволюционный характер. Если не считать лженауки, типа изобретения всё новых и новых элементарных частиц.

Изменение стимулов общества возможно только в результате катастрофы современного «общества изобилия». Возможно, нынешнее «падение в развлечения» — это временная фаза, вызванная «извращениями от изобилия». Когда общество столкнется с реальными ограничениями базовых потребностей, сложное знание будет востребовано как инструмент выживания. Стресс часто является лучшим стимулом для корректировки извращений, чем сытость.

Рубрики
Artificial Intelligence

Осторожно, ИИ! (Продолжение)

Продолжаем выдергивать перышки из хвоста этого павлина. Когда вы исследуете какую-то тему с помощью ИИ, обратите внимание, что ИИ в своих ответах использует неоправданно большое количество обобщений, которые размывают точный смысл ответа и делают его более универсальным и более бесполезным. Например, вместо «отремонтировать стул» он сформулирует «привести в порядок мебель». У второго варианта фразы огромное количество смыслов. И каждый будет представлять себе, что именно то, что он думал, и имелось в виду в ответе.

А на самом деле в виду не имелось ровно ничего. Для того, чтобы делать меньше диких ошибок, разработчики ИИ увеличивают веса обобщенных категорий по сравнению с более конкретными. Это как пифии в древней Греции – нанюхавшись химии, они изрекали свои предсказания, в очень обобщенных формулировках. И каждый подгонял их под свои собственные представления, и как-то так получалось, что всегда предсказания сбывались. Туда же и предсказания Нострадамуса, и любую гадалку с её «дальней дорогой и марьяжным королем». Это всего лишь один из приемов психотехник для введения людей в заблуждение.

Информация о ближайших мероприятиях Национального объединения специалистов по безопасности бизнеса: https://www.acfe-rus.com/

Рубрики
Artificial Intelligence

Осторожно, ИИ

Об этом не говорят, и в школе этому не учат. Мир делится на две большие группы: энтузиастов ИИ и скептиков, которые говорят о его вреде и бестолковости. И о том, что это вовсе не ИИ.

И они тоже правы. А вот о том, что ИИ — это очень специфический инструмент, с огромными ограничениями, никто не говорит. И вот об одном очень важном ограничении ИИ я сегодня расскажу.

Вот оно: ИИ (LLM модели) находят хорошие решения для задач, которые уже решались множество раз и эти решения можно найти в интернете, пусть даже в самых неожиданных местах. Если ваша задача не никогда решалась, то вероятность «глюков» ИИ и их степень их нелепости резко возрастает. Поэтому, прежде чем применять ИИ, оцените, насколько уникальна ваша задача.

Пример: CHATGPT на вопрос, как сделать, чтобы начинка не сползала с пиццы, дал ответ, что её надо приклеить нетоксичным клеем. Почему он так ответил? Потому что никто не решал такую задачу массово. Но один какой-то пользователь когда-то задал этот вопрос в каком-то чате и получил от кого-то шутливый ответ: приклей начинку нетоксичным клеем. Этот ответ народам понравился, завирусился, и получил много дублирований в интернете.

CHATGPT нашел этот единственный ответ, и поскольку он повторялся много раз,  счел его за найденное решение проблемы.

Вывод: не решайте те задачи, которые ещё никто не решал, с помощью LLM моделей. Они не умеют изобретать, и как только нужно придумать что-то новое, они начинают дико глючить.

Подробнее о применении ИИ при проведении расследований поговорим здесь: https://www.acfe-rus.com/2025internalinvestigation

 

Рубрики
Artificial Intelligence Business Future Society

ИИ тронулся, господа

25 ноября 2019 года случилось событие, которого долго ждало всё прогрессивное человечество в моём лице. Франсуа Шолле из Google написал правду, которую его компания не может пока открыто признать. А именно, что всё, что сейчас называют «искусственным интеллектом», на самом деле не искуссттвенный интеллект, а полная хрень. И вообще никто не знает, что такое искусственный интеллект. Потому что определения нет, а те, что есть, тоже полная хрень. В оригинале статья здесь. А на русском языке её пересказ с упрощениями до уровня понимания среднего читателя – здесь.

Это всё написано на 64 страницах, очень умными словами. И получило творение название «Манифеста Шолле». И все сейчас восхищаются смелостью автора и точностью формулировок.

И готов я его полностью поддержать, тем более что всё ровно то же я писал еще 4 июля 2018 году в своей статье «Жопа есть а слова нет». А еще раньше писал то же самое 23 июня 2017 года в статье «Вечный двигатель и искусственный интеллект«. Но поскольку я не сотрудник Гугла, то не было восхищения читателей и журналистов смелостью автора и точностью формулировок. А было в среде адептов религии искусственного интеллекта нечто похожее на бурление говна.

Но приятно, что хоть и позже после меня на два-три годика, но в Гугле таки дошли до той же самой мысли.

Мораль сей басни: если хотите узнавать кое-что важное лет на пять раньше остальных, читайте мой блог. Вдумчиво. И будет вам счастье.

Рубрики
Artificial Intelligence Business Future Society Software quality

Новая вера или из жизни муравьёв

     Когда Генри Форд изобрел конвейер (хотя это не он его изобрел), это привело к прорыву в производительности труда. Машины по цене стали доступны для рядового потребителя (средний класс). Оборотная сторона медали: каждый из работников конвейера умел закручивать одну только гайку и выполнять только одну элементарную операцию. Он не представлял себе, как работает автомобиль, из каких частей он состоит и как они между собой взаимодействуют. Сегодня человек становится всё более специализированным существом. Высоко оптимизированным для одной единственной операции. Хорошо это или плохо? Говорят, что для решения проблемы нужно уметь увидеть её с целиком (helicopter view). Способны ли даже тысяча таких рабочих конвейера, собравшись вместе, объединённые сколь угодно эффективной системой коммуникаций, увидеть «автомобиль» целиком, а не как набор определённым образом соединённых деталей? Думаю, что нет. Для этого нужны не только знания, что с чем соединять, куда что прикручивать, но также знания механики, физики, математики, эргономики и других чуждых для них знаний.

Пример, конечно, утрированный. Но на полном серьёзе периодически встречаются высказывания, что «наша программа не имеет алгоритма, она работает по принципам искусственного интеллекта». Что такое искусственный интеллект, и то, что он основан на тех же самых алгоритмах, мало кто понимает. Как и то, что алгоритмы пишут программисты, которые имеют свойство ошибаться. Как и все другие люди. Те, кто писал когда либо программы, знают, что ошибка может оставаться необнаруженной долгие годы, особенно, если нет возможности независимой проверки решений, выдаваемых программой. Предположим, вы купили программу, которая анализирует резюме кандидатов и отправляет в помойку те из них, которые не отвечают заданным вами критериям. Вы свято верите в то, что программа действительно анализирует на соответствие вашим критериям и никак иначе. Скорее всего, это не так, если у вас нет другой, независимо разработанной программы, которая делает то же самое – чтобы сравнить результаты. А у вас её нет, а если бы и была, то вы вряд ли сможете проверить, как она работает во всех режимах. Например, она может прекрасно отбирать по трём критериям, а на четвертый реагировать только в том случае, если термин написан большими буквами.

Это типичная проблема SAP  и других подобных систем.  Пользователь хочет одно, консультант понял кое-что и запрограммировал другое, в результате после 10 неудачных попыток создания разных форм отчётов конечный пользователь оставляет всякую надежду и начинает по-тихой вести табличку в Экселе. Наблюдал это неоднократно, проводя аудиты. И это хорошо, если пользователь обнаруживает ошибку ручным подсчётом, а во многих случаях ошибка остаётся незамеченной. Я встречал даже случаи умышленного мошенничества, в которых SAP использовался как инструмент манипуляций с финансовой отчетностью. А что – идеальное преступление: мало кто понимает, как делаются эти отчёты, да и в случае чего «ошибку» можно списать на дурака-консультанта.

В науке есть такой критерий: если теорию нельзя проверить или представить себе некий эксперимент, который мог бы её опровергнуть, то эта теория считается ненаучной. В неё можно только верить. Или не верить. Как в бога или НЛО. Так вот, мы вступили в принципиально новую эпоху существования человека. Это эпоха веры не в бога, а в безгрешность решений, принимаемых информационными системами. И зависимости от них. Проверить, правильно ли работает программная система резервирования билетов, расчёта прибыли или отсеивания кандидатов мы не можем – значит, остаётся только свято верить в безгрешность систем, принимающих решение об отказе в выдаче вам визы или запуске ракет.

Мы вступили в эпоху, когда компьютеры управляют людьми без права обжалования или аппеляции…

Сопутствующие мысли по теме

1. Человек имеет два варианта в отношении любого нового явления: либо найти ему объяснение исходя из законов природы и логики и научиться им управлять; либо просто придумать непроверяемое объяснение и поверить в него. Во втором случае существует больше вариантов для манипуляции массами — потому что придумать можно всё, что угодно. Например: «Наша биллинговая программа показала, что вы израсходовали за час 6 Гб». «Но я  вообще не включал телефон!» «Ничего не знаем, наша программа не ошибается» — такой диалог у меня был реальности с одним сотовым оператором на букву М.

2. Про подбор персонала — там действительно уже идёт «война машин». Рекрутеры получают слишком много резюме, чтобы их просмотреть, и покупают программы, которые отсеивают резюме. Соискатели, наоборот, изобретают методы автоматической подгонки резюме под критерии отбора и веерной рассылки. В результате объемы циркулирующей туда-сюда информации выросли в миллионы раз без какого-либо качественного результата. Робот нашел вакансию — робот адаптировал резюме — робот сделал рассылку — другой робот прочитал- выкинул в корзинку-направил отказ. Рекрутер бъётся об стенку — никого нет, а те кто прошёл все фильтры — полный неадекват. Соискатель не понимает, почему он не может найти работу.

И вот оно — прилетело как доказательство (13.07.2016): «Зарегистрировался очень давно на Superjob в качестве работодателя, аккаунтом не пользовался много лет. Сегодня получил на почту такое письмо: «Вам нужен HR-bot? Закажите его разработку Superjob! Чат-бот от Superjob уже подбирает сотрудников «Связному» в Telegram: в день @Svyaznoyhrbot проводит сотни собеседований и получает десятки контактов. HR-бот не просто задает кандидату вопросы, подготовленные при помощи его будущих руководителей, но и дает обратную связь. Срок разработки и запуска бота после согласования технического задания — 7 рабочих дней.»

И ещё — (19.08.16): «Почта-банку потребуется автоматизация как массового найма, так и профессионального. Это будет достигаться за счет перевода традиционных этапов найма в онлайн-формат. Так, система Skillaz будет использовать автоматическую оценку и сбор резюме с открытого рынка, диалоговые тренажеры, тесты с автоматической оценкой кандидата на психологические и профессиональные навыки, видео- и аудиоинтервью»
(http://www.kommersant.ru/doc/3066680).

3. Сегодня, чтобы выжить, вы должны уметь придумать, как обмануть информационную систему. Для этого надо представить себе того ублюдочного кодера, который выродил этот говнокод, и его образ мышления. По моему опыту, сегодня оно на уровне простейших рефлексов животного уровня мыши или кролика. Скоро будут пользоваться популярностью курсы типа: «Как стать успешным и выжить в современном киберпространстве».

4. Есть еще одна беда: раньше было принято информировать пользователей об изменениях в программном обеспечении. Типа, вот теперь вы должны делать это так и так. Фильмики снимали, как освоить новизну. На трубе размещали. Ссылочки давали. Вот жисть была! А теперь Вы чувствуете себя как лабораторная мышь — и фактически ею являетесь. Вас никто не спрашивает. Обновления загружаются автоматически, программа начинает работать по-другому. Ваша мышиная задача — найти выход в лабиринте костылей и велосипедов и не сдохнуть от эксперимента внедрения Agile. Впрочем, потери мышки никто не заметит. Вот когда они начнут дохнуть тыщями… хотя и тогда вряд ли что-то произойдет. Ну, закроется один сайт, начнет работать другой. Программеры перетекут туда и будут творить, творить…

5.  Лет эдак 40-50 назад мы знали не меньше, чем сейчас, если считать объем информации. Да, не было мобильных телефонов, интернетов, а телевизор никто не смотрел по причине того, что смотреть там было нечего. Вместо интернета было издательство «Мир», книги которого надо было заказывать на почте по каталогу и ждать целый год. Но стоили они 1-2 рубля и на зарплату рядового инженера их можно было купить штук 100. Сейчас рядовой инженер для этого должен зарабатывать тысяч триста в месяц. Да он, может, столько и зарабатывает, беда только в том, что инженеров не осталось.

А тогда мы знали, как устроен карбюратор и радиоприёмник, и сами чинили всё, что нас окружало. То есть буквально всё. Весь мир вокруг был понятен и управляем, хотя и не простирался дальше соседней улицы. Сегодня мы можем открыть капот своего авто, глубокомысленно посмотреть на нечто и закрыть. Дай бог знать, куда бензин в неё заливать. Мы знаем очень много — но ни о чём. Телевизор работает потому, что на пульте нажимаем кнопки. Машина едет потому, что нажимаем на педаль — да скоро и этого не нужно будет. Наступает эра невыносимой легкости бытия…

6. Похоже, что развитие телекоммуникаций несовместимо с развитием разума. Поиск в Гугл заменяет нам учебники и годы труда на их изучение — стоит только набрать запрос. Правда, проверить правильность результата поиска никак не получится. Не всегда получится и понять смысл ответа. Но ведь это неважно. Вот и учёные обнаружили: развитие коллективного разума чревато сокращением интеллектуальных способностей у отдельно взятого индивида. Нейронные структуры, отвечающие за обучение, память и восприятие, у ос, живущих в одиночестве развиты намного сильнее, чем у тех, что проживали малыми группами или в сложных колониях. В последнем случае, осы и вовсе оказывались намного «глупее» своих собратьев-одиночек. Исследование

Статья про ос подтверждает тезис о том, что появление коллективного разума приводит к деградации индивидуального, что мы и видим сейчас в окружающей действительности. Лишите современного человека доступа к поисковикам в интернет, и проверьте его знания — его индивидуальный разум. И вы увидите, они очень невелики и в основном о том, какие кнопки на каком девайсе нажимать, чтобы получить еду.

А может быть, муравьи, пчёлы — это и есть цивилизации прошлых эпох, достигшие совершенства в своих коммуникациях? Когда коллективный разум окончательно победил индивидуальный?

7. «Да, обезьяньи высказывания просты — обычно в них от двух до пяти слов, — а словарный запас небогат. Самые продвинутые активно используют 400–500 слов, хотя понимают гораздо больше (впрочем, в пиджин-инглише всего около 600самостоятельных, несоставных слов — и это полноценный человеческий язык, на котором выходят газеты и вещают радиостанции).»(http://bit.ly/29W8Pa3). Мне тут вспомнилась статья о результатах последних вступительных экзаменов в МГУ? http://bit.ly/29JPb4f

8. А вообще искусственный интеллект отличается от натурального точно так же, как надувная женщина отличается от настоящей:)

Доподнительная информация по теме

   20.09.2018   «AI Systems Quietly Take Full Control Of Human Destiny» — и вот, что называется, ещё до одного дошло. Когда в стену лбом. С размаху. В переводе на наш: «Системы искусственного интеллекта потихоньку берут в свои руки судьбу человека»

     Цитата: «John Naish recounts an anecdote where, because he was once a motoring journalist, the AI software at his insurance company decided he was likely to know Jeremy Clarkson, and therefore might give him a lift in his car and drive dangerously. His insurance application was rejected! And of course, he complained but was told that given the same “Automated Decision Engine” was used across the industry, he was going to be screwed for insurance all over.»

В переводе на понятный. Парень захотел застраховаться. Но поскольку он автомобильный журналист, система AI решила, что он может быть знаком (заметьте: может быть!) с другим журналистом, который может его подвезти  и при этом может поехать слишком резво . И поэтому система решила, что не стоит продавать ему страховой полис. ПНХ. А поскольку страховые компании обмениваются рейтингами клиентов, то его послали ПНХ и все остальные страховые компании. Всё. Сказке конец.

Законодательство о правилах взаимодействия человека и принимающих решения систем отстаёт от реальности лет на 20. Только-только принимаются законы в области защиты и доступа к персональным данным, хотя это надо было сделать как минимум 10 лет назад, а по-хорошему — 20.

То же самое с системами, которые все называют «искусственный интеллект», хотя никакой это не интеллект вообще. Нужно срочно ввести в право нормы, по которым решение, принятое любой системой, может быть обжаловано, и в случае нанесения ущерба неверно принятым решением человеку, наступает ответственность того, кто «автоматизировал» процесс принятия решений.

06.07.2019 Независимое исследование показало, что 81% людей, которые распознаны уличной системой автоматического распознавания лиц в Лондоне как возможные подозреваемые, оказались невиновными. То есть 4 из пяти опознанных «искусственным интеллектом» как опасные преступники были ни в чём не виноваты. Это так называемая ошибка «false positive». А сколько настоящих преступников остались неузнанными-нераспознанными?

Наверное, ещё несколько лет — и после появления 3D видеокамер, мощных алгоритмов и железа, встроенного в каждую камеру, надёжность распознавания повысится до хотя бы 80%. А пока — делите на 1000 обещания чудес науки и техники от продавцов воздуха под названием «искусственный интеллект».