Эпистемологические пределы искусственного интеллекта в его современном пониманииИллюзия всемогущества ИИСейчас идёт активная гонка LLM. Причём уже не на корпораЭпистемологические пределы искусственного интеллекта в его современном пониманииИллюзия всемогущества ИИСейчас идёт активная гонка LLM. Причём уже не на корпора

Эпистемологические пределы искусственного интеллекта в его современном понимании

2026/03/01 19:39
7м. чтение
Эпистемологические пределы искусственного интеллекта в его современном понимании
Эпистемологические пределы искусственного интеллекта в его современном понимании

Иллюзия всемогущества ИИ

Сейчас идёт активная гонка LLM. Причём уже не на корпоративном, а на межнациональном уровне. Вычислительные мощности для обучения LLM приравниваются к стратегическим ядерным запасам, потому что роботы решают всё больше задач и всё лучше. Возникает ощущение, что ещё немного и они смогут решать вообще любые задачи. Но есть ли теоретический предел того, с чем они могут справиться?

Сначала стоит определиться, что будем называть задачей. Альтшуллер делил задачи на рутинные и изобретательские. Рутинные могут быть очень сложными в реализации, требовать гигантских вычислений и данных, но их решение лежит внутри уже существующей системы знаний. С такими задачами роботы уже сейчас справляются хорошо. А если пока и не справляются, легко представить, что справятся в ближайшее время. Это вопрос ресурсов и времени.

Почему некоторые проблемы не решаются внутри системы текущий системы знаний

Интереснее с изобретательскими проблемами. Это те проблемы, про которые Эйнштейн говорил: «Нельзя решить проблему на том же уровне мышления, на котором она была создана». В таких случаях нужно перестраивать сам способ построения решения, а не просто подбирать более удачный вариант внутри уже известного подхода.

Чтобы это суметь сделать, важно понять одну вещь. Формулируя проблему, мы неявно помещаем её в некоторую семантическую сетку, то есть в систему различений, семантических осей, с помощью которой и описываем ситуацию: дорого-дешево, быстро-медленно, эффективно-неэффективно, рискованно-безопасно и так далее.

Когда мы думаем о проблеме, мы подбираем слова и формулировки, которые уже лежат в этих осях. Мы описываем ситуацию через те параметры, которые считаем важными, и тем самым фиксируем пространство поиска. Поэтому и ответ оказывается внутри той же сетки. Проще говоря, возможный ответ во многом предопределён самой формулировкой проблемы.

Но выбранная сетка может в принципе не позволять решить проблему. Тогда никакие уточнения и оптимизации не помогут. Нужно менять саму систему различений, то есть переходить к другой сетке, в которой ситуация описывается иначе и решение вообще становится возможным. Это то, что Акофф называл «растворением проблемы».

Инсайт как смена координат

Поэтому решение таких задач почти никогда не выглядит как линейное аналитическое рассуждение. Пока человек остаётся внутри прежней схемы, мысль ходит по кругу. Он перебирает варианты, уточняет параметры, пробует разные комбинации, но всё равно возвращается в ту же точку. А потом он идёт гулять в парке, принимает душ, идёт в зал, отвлекается и вдруг замечает странную на первый взгляд связь. Например, падающий снег напоминает о том, как данные можно «раскладывать» по слоям. Ритм ударов по боксёрской груше вдруг наводит на мысль о сегментации клиентов. Поток воды вызывает ассоциацию с очередями запросов. И так далее. Связь кажется случайной и не относящейся к задаче, но она зацепляет.

Метафора позволяет увидеть новые семантические оси, которых в прежней схеме просто не могло существовать. С точки зрения старой логики они могут выглядеть глупыми, нерациональными или вообще не относящимися к делу: большой-снежный, мокрый-хороший и тд. Но именно эти новые различения позволяют описать ситуацию так, что разрыв, который мы называли проблемой, исчезает. Обнаружение такого нового взгляда на ситуацию и называется инсайтом.

Почему масштабирование ИИ не позволяет находить инсайты

Возвращаемся к LLM. А они могут решать такие задачи? Первая трудность состоит в том, человек переживает мир телесно. Он чувствует холод, усталость, боль, удовольствие, движение, ритм, шум воды, тяжесть собственного тела. Эти переживания становятся материалом для метафор и неожиданных связей. Для LLM же ничего этого не существует, она видит мир только как текст и поэтому нет сенсорного опыта, который можно было бы перенести на другую ситуацию. Но даже если отвлечься от этого и представить, что мы каким-то образом смогли организовать для модели аналог человеческого опыта, некий виртуальный «поход в душ», где мог бы родиться инсайт, возникает следующий вопрос: сколько это будет стоить и возможно ли это вообще технически?

И тут нас ждет вторая трудность. У LLM нет семантического поля с явными осями. В некотором приближении его роль может играть пространство эмбеддингов. Промптинг или RAG это пространство не перестраивают, а скорее наполняют его новым содержанием. Единственный более-менее подходящий на сегодня, насколько я знаю, механизм дообучения, который можно рассматривать как перестроение семантической сетки LLM, это fine-tuning.

Но если попробовать посчитать, сколько стоит организовать для большой модели аналог «сходить в душ», чтобы там мог родиться инсайт, цифры получаются неприятные. Для современной корпоративной LLM уровня ChatGPT 3.5 (порядка 700B параметров) это десятки миллионов GPU-часов и десятки миллионов долларов. Причём, напомню, речь идёт именно о попытке, а не о гарантированном результате. Сам по себе поход в душ не гарантирует инсайт, а лишь даёт шанс на его появление.

Поэтому индустрия идёт по более понятному пути, просто наращивает размеры моделей. Помните историю начала 2000-х про странного мужика, который заставлял своих маленьких детей заучивать университетские учебники и пытался отправить их учиться в МГУ, утверждая, что нашёл способ выращивать гениев? А девочки потом плакали на экзаменах, потому что просто не понимали, о чём и, главное, зачем их спрашивают преподаватели, они же всё точно воспроизвели, как в учебнике. Вот что-то очень похожее сейчас происходит и в индустрии ИИ.

Если предположить, что цены на вычислительные мощности продолжат падать экспоненциально, лет через десять такой «поход в душ» для LLM может стоить уже всего пару миллионов долларов, то есть вполне подъёмно для крупного бизнеса. Но, напомню, сам поход в душ это лишь шанс для инсайта, а не гарантия его появления. Впрочем, человек тоже не знает, когда именно придёт идея, в душе, в туалете, на прогулке или в тренажёрном зале. Значит, такие попытки нужно делать постоянно.Тогда вопрос не в цене одной попытки, а в природе самого инсайта. Можно ли создать идеальные условия, при которых он гарантированно произойдёт? Нужны ли яркие эмоции, необычные впечатления, сильный стресс, наоборот спокойствие и монотонность или ещё что-то? Я не знаю.

Альтшуллер предлагает список из нескольких десятков подходов, которые нужно перебирать в надежде родить идею и обнаружить альтернативные взгляды. Голдратт, как и многие другие авторы учебников по системному анализу, предлагает фокусироваться на выверении точности формулировки и тщательном изучении границ проблемы в надежде, что в процессе анализа произойдёт «пробой» мысли. Так или иначе процесс рождения инсайта очень сложно формализовать.

Один из возможных ответов на этот вопрос попытались дать Вачовски в «Матрице». В фильме Архитектор периодически перезапускал Матрицу, чтобы сделать её более совершенной, но для этого ему был нужен человек. Человек выступал источником нелогичного, нерационального выбора, который сама система произвести не могла, но без которого она не могла перейти в новое состояние.

С точки зрения машины выбор человека выглядит как ошибка, как шум, но именно такой выбор позволяет выйти за пределы текущей модели. Рациональная система способна оптимизировать только то, что уже описано её правилами. Она может перебирать параметры, улучшать решения, но не может сама произвести шаг, который меняет сами правила игры.

По сути Архитектору нужен был не герой, а носитель неопределённости. Агент, который действует не строго по логике системы и тем самым создаёт возможность для её обновления. Без такого фактора система остаётся замкнутой на себе и рано или поздно застревает в собственных противоречиях.

Если смотреть на это в контексте нашего разговора, Нео выполняет роль внешнего источника новой схемы. Он не улучшает Матрицу внутри заданных координат, а создаёт возможность перейти в другие координаты. Именно поэтому его выбор нельзя было заменить алгоритмом.

Существует ли вообще решение этой проблемы, можно ли создать модель, способную системно находить инсайты? Я не знаю. И ChatGPT, который помог мне посчитать стоимость «похода в душ» для LLM, в обсуждении природы инсайта в основном поддакивал или говорил банальности. Видимо, и моя, и его семантическая сетка пока не содержит ответа.


Регулярно пишу в Telegram-канал Chief Philosophy Officer о философии бизнеса и управленческого мышления. Заходите.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу crypto.news@mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Цены на криптовалюту