Об этом не говорят, и в школе этому не учат. Мир делится на две большие группы: энтузиастов ИИ и скептиков, которые говорят о его вреде и бестолковости. И о том, что это вовсе не ИИ.
И они тоже правы. А вот о том, что ИИ — это очень специфический инструмент, с огромными ограничениями, никто не говорит. И вот об одном очень важном ограничении ИИ я сегодня расскажу.
Вот оно: ИИ (LLM модели) находят хорошие решения для задач, которые уже решались множество раз и эти решения можно найти в интернете, пусть даже в самых неожиданных местах. Если ваша задача не никогда решалась, то вероятность «глюков» ИИ и их степень их нелепости резко возрастает. Поэтому, прежде чем применять ИИ, оцените, насколько уникальна ваша задача.
Пример: CHATGPT на вопрос, как сделать, чтобы начинка не сползала с пиццы, дал ответ, что её надо приклеить нетоксичным клеем. Почему он так ответил? Потому что никто не решал такую задачу массово. Но один какой-то пользователь когда-то задал этот вопрос в каком-то чате и получил от кого-то шутливый ответ: приклей начинку нетоксичным клеем. Этот ответ народам понравился, завирусился, и получил много дублирований в интернете.
CHATGPT нашел этот единственный ответ, и поскольку он повторялся много раз, счел его за найденное решение проблемы.
Вывод: не решайте те задачи, которые ещё никто не решал, с помощью LLM моделей. Они не умеют изобретать, и как только нужно придумать что-то новое, они начинают дико глючить.
Подробнее о применении ИИ при проведении расследований поговорим здесь: https://www.acfe-rus.com/2025internalinvestigation