Илон Маск в своем выступлении на Всемирном экономическом форуме сказал, что не позже следующего года может появиться искусственный интеллект, который будет умнеИлон Маск в своем выступлении на Всемирном экономическом форуме сказал, что не позже следующего года может появиться искусственный интеллект, который будет умне

ИИ не станет умнее человека, а заставит его думать так, как это делал Достоевский

2026/03/19 13:15
11м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу crypto.news@mexc.com

Илон Маск в своем выступлении на Всемирном экономическом форуме сказал, что не позже следующего года может появиться искусственный интеллект, который будет умнее любого человека. Миллиардер ошибается – ИИ пока не превзойдет человека, так как люди не способны обучить его правильно мыслить, потому что сами не умеют это делать. Им еще надо этому научиться, что можно сделать, освоив способ мышления Федора Михайловича Достоевского.

В последнее время все большее беспокойство вызывает проблема предоставления ложной и необъективной информации нейросетями. В некоторых странах вводят требования к ИИ обеспечить достоверность, точность, правдивость, объективность и т. п.

Разумность ИИ ограничена способностями его учителей

Однако это не решает проблему, так как требования достоверности, правдивости и объективности сами люди во многих сферах деятельности не соблюдают. Ученый Дэвид Розадо из Политехнического института Отаго в Новой Зеландии в 2023 году опубликовал результаты исследования, согласно которому популярные нейросети, которые позиционируются как нейтральные и объективные, в своих ответах на вопросы людей проявляют политические пристрастия.

Оказалось, что люди, которые задают вопросы по спорным темам на платформах ChatGPT и Google, часто сталкиваются с избытком левых точек зрения при ограниченном представлении альтернативных точек зрения. Но, например, разработка OpenAI придерживается центристских взглядов.

Розадо отнес подобную политизированность ботов к виду «алгоритмических предубеждений» – систематических ошибок, которые совершают машины в своих рассуждениях, и которые ведут к несправедливым результатам. Он отметил, что подобная предвзятость несет угрозу установления общественного контроля, распространения дезинформации и манипулирования демократическими институтами и процессами.

Он указал две причины возникновения предвзятости. Первая – это выбор источников, на базе которых обучался чат-бот. В частности, «левые» боты обучались на информации, размещенной в различных англоязычных СМИ, социальных сетях и сайтах университетов и научных учреждений, авторы которых склонны к левым идеям. Вторая причина – это пристрастность специалистов, которые осуществляют дообучение ИИ. Специалисты делают это, руководствуясь идеологическими предпочтениями.

Дэвид Розадо попытался решить данную проблему, дообучив бот Davinci GPT-3 на текстах различных классических консервативных деятелей и мыслителей ХХ века: Томаса Соуэлла, Милтона Фримана и Уильяма Бакли. Свой «правый» ИИ он назвал RightWingGPT.

Но считать этот способ решением проблемы достоверности знания и непредвзятости вряд ли можно, так как ведь противоположные мнения не могут быть правдой одновременно. Таким образом, получается, что отличить истинное знание от заблуждений в ряде случаев ИИ не в состоянии, а специалисты, которые осуществляют обучение ИИ, даже не пытаются их этому обучить.

То есть разумность ИИ ограничена способностями его учителей. Мысль довольно очевидная, но такая постановка проблемы позволяет понять, где искать ключ к совершенствованию разума нейросетей, так как разумность людей – это явление, которое изучается уже давно, поэтому известны и некоторые способы преодоления их предвзятости и необъективности.

Проблема расхожей мудрости мешает объективности и человека, и ИИ

Одна из известных особенностей мышления человека, ограничивающих его способность отличать истину от лжи, объективное знание от необъективного, это расхожая мудрость. Данный термин был введен американским экономистом Джоном Кеннетом Гэлбрейтом в книге «Общество изобилия», опубликованной еще в 1958 году. Им ученый обозначил экономические, политические и социальные принципы, которые почитаются в обществе по причине их приемлемости, даже если они являются ложными. Он отметил, что «… во всем, что касается описания общественных явлений, наблюдается непрекращающееся, нестихающее противоборство между тем, что является истинным, и тем, что считается всего лишь приемлемым».

Такое явление, по мнению Гэлбрейта, объясняется тем, что «Поскольку экономические и социальные явления описать не так-то просто (ну или нам так кажется), а установить в ходе основательной проверки их истинность или ложность, по большому счету, не удается, они предоставляют человеку прекрасную возможность, которой он лишен при изучении физических явлений: он в достаточно широких пределах может считать истиной всё, что ему нравится. То есть человек вправе придерживаться таких взглядов на окружающий мир, которые ему больше всего по душе и по вкусу».

Указанное противоборство истинного и приемлемого имеет непосредственное отношение к искусственному интеллекту и его ошибкам. В настоящее время многие представления об экономике, политике, социологии и других сферах гуманитарного знания в современном мире принадлежат к расхожей мудрости, и иногда не соответствуют истине, и отражают не объективное знание, а вкусы и желания различных групп людей. Нейросети, как и их разработчики, об этом факте не знают, поэтому в ответах на вопросы в данных сферах знания они часто выдают не истинные знания, а заблуждения, которые пришлись по душе и по вкусу различным группам населения, поэтому считаются ими истинными. Объективность ИИ состоит в том, что он представляет истину и ложь как разные мнения, на равных правах.

Ситуация похожа на ту, которая имеет место с политизированностью нейросетей. Но если политическую ангажированность эксперты замечают, то преобладание в рассуждениях ИИ в разных сферах гуманитарного знания расхожей мудрости, а не научных знаний, не осознается.

Ситуация осложняется тем, что в реальной жизни кроме борьбы науки и расхожей мудрости, имеется еще и противодействие различных расхожих мудростей, то есть представлений, которые нравятся различным влиятельным группам населения. В частности, Гэлбрейт отметил, что «есть расхожая мудрость консерваторов и расхожая мудрость либералов». К тому же, в расхожей мудрости имеется и значительная часть вполне научного объективного знания.

Явление расхожей мудрости современные нейросети не учитывают. И происходит это потому, что данное различие не учитывают и их учителя. В частности, Дэвид Розадо обнаружил наличие левых и правых ИИ, но не понял, что надо было бы исследовать различие между научным (истинным) знанием и тем, что Гэлбрейт назвал «расхожей мудростью консерваторов и расхожей мудростью либералов».

То есть предвзятость ИИ может заключаться не только в левых или правых предпочтениях, но и в предпочтении расхожей мудрости и замалчивании научного знания.

Искусственный интеллект заставит человека научиться мыслить, как Достоевский

Исправить указанные недостатки сами нейросети и их тренеры не в состоянии, так как о явлении расхожей мудрости они ничего не знают. О нем пишут мало, хотя Джон Гэлбрейт весьма известный ученый и претендует на статус лучшего американского экономиста 20 века. Причина такой невнимательности общества к указанной проблеме очевидна: людям хочется придерживаться таких взглядов на окружающий мир, которые им больше всего по душе и по вкусу, и совсем не улыбается заниматься самокопанием, в результате которого может оказаться, что их взгляды ошибочны, причем с очень большой вероятностью. И консерваторы, и либералы, и центристы не хотят признавать свои взгляды расхожей мудростью, так как придется признать, что в чем-то они могут быть неправы. То есть, говоря проще, самокритикой заниматься никто не любит, а для политиков и ученых самокритика крайне нежелательна, так как она может уменьшить их популярность и финансирование.

В русскоязычном интернете о расхожей мудрости нет вообще никаких статей и книг (по крайней мере, мне не удалось найти что-либо), если не считать перевода книги «Общество изобилия». Я даже проверил что думают по поводу расхожей мудрости Алиса и deepseek (на русском). Последний вообще не понял, о чем это я спрашиваю, и спутал это понятие с житейской мудростью и расхожим мнением, создав какой-то гибрид из этих понятий. Похоже, что просмотреть книгу Гэлбрейта эта нейросеть просто не удосужилась, скорее всего, в силу ограниченности источников, которые в нее забили ее учителя.

Алиса, как выяснилось, читала Гэлбрейта, но ничего не поняла в расхожей мудрости, преподнеся его как позитивное явление, хотя и несущее некоторые риски, в то время как у Гэлбрейта, наоборот, сделан акцент на негативных свойствах такой мудрости, которая приводит к экономическим и социальным кризисам. Вся его книга – это разоблачение расхожей мудрости, и всего пару абзацев в ней – в защиту. Алиса по каким-то причинам интерпретировала его книгу прямо противоположным образом.

Расхожая мудрость – это, возможно, главное препятствие, мешающего самому человеку поиску достоверного, точного и объективного знания. Поэтому это главная помеха и для совершенствования разумности ИИ. Таким образом, представления о расхожей мудрости – это главное, чему нужно обучить нейросети, чтобы ИИ стал более умным и удовлетворил тем требованиям, которые к нему уже предъявляются на уровне государственного регулирования.

В море англоязычной информации есть кое-что о расхожей мудрости, хотя там желающих заниматься этой темой тоже немного. Что касается русского мира, то его честь спас Федор Михайлович Достоевский, который в своих публицистических статьях, размещенных в «Дневнике писателя», пытался, как и Джон Гэлбрейт, получить истинные, объективные знания, независящие от расхожей мудрости, хотя этот термин и не использовал. Писатель довольно много внимания уделял своему способу мышления, который называл реализмом особого, высшего толка.

Особенности его мышления не остались незамеченными. Писатель и историк Игорь Леонидович Волгин в книге «Ничей современник. Четыре круга Достоевского» отметил, комментируя «Дневник писателя», что «Не случайно почти никто из оппонентов не спорит с Достоевским по существу. Критический гнев вызывает в данном случае не столько содержание «Дневника», сколько способ мышления его автора». Волгин также отметил, что «Ни по одному из этих вопросов точка зрения Достоевского не совпадала со взглядами представителей либеральных или народнических кругов. Как, впрочем, не совпадала она и с идеологической моделью охранителей. У Достоевского была своя точка зрения», а «Отдельные идеи Достоевского вызывали поддержку или критику то в одном, то в другом лагере».

Таким образом, Достоевский нашел другой способ избежать политической предвзятости, отличный от того, который предложил Дэвид Розадо. Писатель не излагал одновременно точки зрения левых и правых, а искал и находил правильную точку зрения, он стремился понять, как проверить истинность или ложность суждений, и преуспел в этом.

Более подробно способ мышления Достоевского и представления Гэлбрейта по поводу расхожей мудрости описаны пока только в двух электронных книгах: «Русская цивилизация в ожидании нового Кузьмы Минина», а также «Дневник писателя – Продолжение. Выпуск 1 за 2026 год: «О чем бы писал Достоевский в современной России?». В частности, в Продолжении продемонстрировано применение данных представлений к событиям в России: оценке конференции ВТБ «Россия зовет!» и Плане правительства РФ проведения структурных реформ до 2030 года.

Этих материалов недостаточно для обучения ИИ, так как чтобы объяснить ему, как надо правильно думать, требуется больше примеров и точно сформулированные правила мышления (реализма в высшем смысле). Достоевский использовал несколько правил мышления, позволяющих устранить предвзятость и обеспечить объективность и истинность, семь из которых описаны в упомянутом выше первом выпуске за 2026 год Продолжения «О чем бы писал Достоевский в современной России?». Но там рассмотрены всего несколько примеров правильных рассуждений, а для обучения ИИ требуются сотни и тысячи, а также точные формулировки правил рассуждения, которых ни у Достоевского, ни у Гэлбрейта нет (свои исследовательские проекты они не завершили).

Поэтому, повторим, сами нейросети не смогут на основе рассуждений Гэлбрейта и Достоевского освоить их способ мышления. Теоретически, ИИ смог бы сгенерировать необходимые знания и правила отличия истинного от приемлемого, но для этого ему надо втолковать, что в жизни общества существуют сферы, которые являются скрытыми для общества, и не отражены в имеющемся знании, и объяснить, как эти сферы найти. Ни один человек, насколько мне известно, этого сейчас не знает.

Конечно, кое-какие знания имеются. В частности, тот же Достоевский описал несколько таких скрытых сфер общественной жизни (расхожая мудрость – только одна из них), но общество этого не заметило. Писателя назвали мрачным гением, но особо разбираться в том, что же такого этот гений там обнаружил, не стали. Примерно так же обстоят дела и с исследованиями Гэлбрейта, которого обозвали экономическим гуру для неэкономистов, и отметили его постоянное стремление критиковать всех окружающих, что дало основания игнорировать некоторые из сделанных тем открытий, в том числе и такого явления как расхожая мудрость.

Хотя расхожую мудрость общество, в том числе и научное, стремится не замечать, она существует, и многие люди исследовали ее, хотя и не используя сам термин. В частности, российский логик, публицист и писатель Александр Зиновьев. Но они использовали разную терминологию, рассматривали разные сферы жизни общества, и установить связь между ними сложно, не зная, что ищешь. К тому же данную проблему обычно представляют как борьбу истинного и ложного, что также имеет место, хотя речь идет о борьбе истинного и приемлемого.

Поэтому для того, чтобы обучить искусственный интеллект правильно мыслить, и научиться находить правдивое знание, а не представлять истину и ложь как равноценные мнения, необходимо завершить проекты Гэлбрейта и Достоевского. В частности, точно сформулировать используемые ими правила, позволяющие отличить истинные рассуждения и от приемлемых, и от ложных.

А сделать это не просто. Даже сам Гэлбрейт написал, повторим, что «социальные явления описать не так-то просто (ну или нам так кажется), а установить в ходе основательной проверки их истинность или ложность, по большому счету, не удается». Впрочем, он сделал оговорку «или нам так кажется», и это не случайно: в своей книге он сам как раз пытался, причем успешно, установить истинность или ложность рассуждений, действуя по определенным правилам, хотя их не сформулировал.

Вывод из всего вышесказанного простой: ИИ может стать умнее современного человека только после того, как сам человек поумнеет, сформулировав правила отличия истины от разного рода «хотелок». Поэтому не стоит бояться, как Илон Маск, что ИИ уже скоро станет умнее человека, так как для этого поумнеть требуется человеку! Что не просто – труды Достоевского и Гэлбрейта хорошо известны, но до сих пор не поняты.

Говоря упрощенно, ИИ надо научить самокритике, для чего человеку предстоит стать самокритичнее самому, осваивая способ мышления таких гениальных критиканов как Достоевский и Гэлбрейт.

Владимир Федорович Тарасов

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу crypto.news@mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Цены на криптовалюту