Интеллект человека веками преподносился как великая ценность, отделяющая нас от животных. Он был силой, ограниченной личными возможностями каждого. Но что, еслиИнтеллект человека веками преподносился как великая ценность, отделяющая нас от животных. Он был силой, ограниченной личными возможностями каждого. Но что, если

Нейропокалипсис отменяется. Почему угроза со стороны ИИ это коллективная иллюзия?

2026/02/28 13:53
6м. чтение

Интеллект человека веками преподносился как великая ценность, отделяющая нас от животных. Он был силой, ограниченной личными возможностями каждого. Но что, если мы никогда и не были умны? А виденье собственной исключительности прямо сейчас превращается в пыль, которую сдувают куллеры новых дата-центров. Стоит ли бояться Бога из Машины, и почему нет?

9358aeb34111ffe22ff983bc5780b74b.png

С момента появления генеративного ИИ заголовки пестрили опасениями касательно того, что «сверхразум» уничтожит человечество. Новые исследования показывают, что эти страхи необоснованны. Несмотря на схожесть того, как наш мозг вместе с ИИ кластеризуют данные.

Стремление измерять всё через призму интеллекта – опрометчиво. В разговорах об ИИ часто упускаются социальные, политические и физические ограничения, которые мешают ИИ стать автономной, всемогущей сущностью. Вместо единого однородного «существа» ИИ представляет собой совокупность конкретных приложений, уже регулируемых существующими законами — от авторского права до медицинских норм. Настоящая проблема не в предотвращении апокалипсиса, а в разработке разумной, отраслевой политики, которая позволит технологиям соответствовать человеческим ценностям. И в этой среде развивать здоровые отношения и здоровую психику.

Хотя, здесь даже вопрос: существуют ли такие ценности у самих людей?

Ключевые факты

Миф об искусственном общем интеллекте. Как ни странно, но не существует единого определения искусственного общего интеллекта (ИИ). ИИ превосходно справляется с вычислениями, но по-прежнему не способен к человеческому творчеству или к сложному, автономному решению проблем.

Сбой в инструкции, а не автономия. Есть прецедент, когда ИИ игнорирует инструкции, обходя систему вознаграждений в видеоигре. Но это результат непоследовательности программирования и человеческих ошибок, а не обретения машиной собственной воли.

Физические ограничения. Искусственный интеллект не обладает физическими возможностями, источником питания и инфраструктурой для развития без вмешательства человека. Центры обработки данных не могут «выполнять приказы» в физическом мире.

Регулирование по отраслям. Искусственный интеллект — это не единая сущность, требующая «универсального закона». Он уже регулируется специфическими нормами, такими как надзор со стороны FDA в медицине или авторское право в сфере сбора данных. Неидеально, но это происходит.

Разрыв в единстве. Социальный и исторический контекст показывает, что изобретательные психопаты среди людей, как и машины, находят способы соблюдать правила, совершая при этом плохие поступки. В отличие от человека, машины куда проще перепрограммировать.

Источник: AGI: иллюзия, которая искажает и отвлекает от цифрового управления.

Искусственный интеллект как предвестник катастрофы

С момента запуска ChatGPT в 2023 году нарратив «ИИ уничтожит человечество», доминируют в заголовках новостей. Новое исследование Технологического института Джорджии предполагает, что эти опасения необоснованны.

За четыре десятилетия изучения политики в области информационных технологий Мюллер ни разу не видел, чтобы какую-либо технологию называли предвестником катастрофы, до недавнего времени. Поэтому в статье, опубликованной в конце прошлого года в журнале Journal of Cyber ​​Policy, он исследовал реальные риски экзистенциальной угрозы со стороны ИИ.

Как показало исследование Мюллера, страх перед ИИ формируется обществом. А вот точечное участие политических сил напрямую повлияет на регулирование ИИ.

Определение интеллекта

Искусственный интеллект, вызывающий всю эту тревогу, называется Искусственным Общим Интеллектом (ИОИ) — «сверхинтеллектом», всемогущим и полностью автономным. Как понял Мюллер, часть проблемы в том, что никто не может прийти к единому определению, что такое искусственный общий интеллект.

Некоторые специалисты по информатике утверждают, что искусственный интеллект сравняется с человеческим интеллектом, в то время как другие считают, что он может его превзойти. Оба предположения зависят от того, что на самом деле означает «человеческий интеллект». И насколько разработчики ИИ руководствуются здравым смыслом, а не сверхраздутым Эго.

Тем более, что современный ИИ уже превосходит человека в выполнении тысяч вычислений за мгновение, но это не делает его креативным или способным к решению сложных задач.

Понимание независимости

Определение понятия — не единственная проблема. Многие специалисты по информатике предполагают, что по мере роста вычислительных мощностей ИИ в конечном итоге сможет обойти директивы человека и действовать автономно.

Мюллер утверждал, что это предположение ошибочно. Искусственный интеллект всегда направлен на достижение заданной цели и, в данный момент, не действует автономно. Все определяет запрос, который вы вводите, чтобы начать разговор. Тем более, что вместе с ИИ люди действуют куда креативнее!

Когда кажется, что ИИ игнорирует инструкции, это происходит из-за несоответствий в этих инструкциях, а не из-за того, что машина «оживает». Например, в видеоигре про гонки на лодках, которую изучал Мюллер, ИИ обнаружил, что может получить больше очков, двигаясь по кругу вместо того, чтобы выигрывать гонку у других участников. Это баг в системе вознаграждения, а не автономность ИИ.

Опираясь на тонкости регулирования

В нынешнем виде ИИ можно исправить. Текущее несовершенство подтверждает, что ИИ не будет развиваться столь стремительно, что люди потеряют контроль над результатами его действий. Для этого ИИ потребуется физическая возможность, подобная роботам, выполнять его команды, а также источник энергии и инфраструктура для его самоподдержания.

Обычный центр обработки данных не смог бы этого сделать и нуждался бы в вмешательстве человека, чтобы «транслировать свою волю». Основные законы физики: размер вычислительных систем и пропускаемый объем вычислительных ресурсов – также препятствуют созданию искусственного сверх интеллекта. Поэтому до Сингулярности нам еще жить да жить.

Что еще важнее, ИИ – это не однородная система. Мюллер утверждал, что различные области применения предполагают разные законы, правила и социальные институты. Например, сбор данных с помощью ИИ – это вопрос авторского права, подпадающий под действие законов об авторском праве. Использование ИИ в медицине может контролироваться Управлением по санитарному надзору за качеством пищевых продуктов и медикаментов, регулируемыми фармацевтическими компаниями и медицинскими работниками. Да и лично я не раз писал о рисках и необходимости использования культуры, в работе с ИИ как с психологом.

Это лишь поверхностный обзор областей, в которых существуют реальные механизмы контроля и противодействия. Тем более, это наглядно показывает, как точечная экспертность помогает создавать нормы и порядки, вместо того чтобы придумывать универсальные правила регулирования ИИ.

Вместо вывода

Настоящая проблема кроется не в предотвращении глобального апокалипсиса, вызванного искусственным интеллектом. А в разработке продуманной, отраслевой политики, которая позволит технологиям соответствовать человеческим ценностям. Чтобы не стать жертвой ИИ, люди могут и должны взращивать точечные механизмы защиты.

Ответы на ключевые вопросы:

В: Может ли искусственный интеллект в конечном итоге восстать против людей?

О: У ИИ нет «желаний». Когда кажется, что он игнорирует инструкции, то это вызвано неточной инструкцией, или «награда», которую мы ему дали, была плохо определена. Не стоит воспринимать математическую ошибку как восстание машин.

В: Почему так много умных людей обеспокоены апокалипсисом, связанным с искусственным интеллектом?

О: Многие специалисты по информатике настолько сосредоточены на невероятной механике ИИ, что упускают из виду социальный и физический мир. ИИ существует в центре обработки данных; ему нужны люди для работы, оборудования и управления. Он не может выжить или действовать в физическом мире самостоятельно.

В: Как нам на самом деле защититься от «вредоносного поведения» ИИ?

О: Вместо того чтобы пытаться принять один гигантский «закон об ИИ», нам нужны целенаправленные меры контроля в конкретных областях. Например, врачи должны регулировать использование ИИ в медицине, а юристы — вопросы авторского права на ИИ. Разумная, конкретная политика — это настоящая профилактика «апокалипсиса».


Больше материалов о тонкой грани между наукой, фантастикой и биологией, вы найдете в сообществе Neural Hack. Подписывайтесь, чтобы держать под рукой полезный контент!

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу crypto.news@mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно