Этой зимой на Хабре говорили о том, как искусственный интеллект показывает себя в реальной разработке и повседневных задачах. Участники сезона «ИИ в разработке» пробовали ИИ в самых разных ролях: от экзаменационного ассистента до соавтора open source проектов. Наши герои создавали игру для ребёнка с помощью ИИ (отдельный респект за попытку объяснить шестилетнему ребёнку схему разработки), вайб-кодили инструмент для поиска снимков в собственном фотоархиве (разобрать фото — наверняка боль для многих…), проектировали вибрационный вариометр для парапланеризма.
Где‑то ИИ честно экономил десятки часов и помогал одному человеку тянуть проекты «на уровне команды», а где‑то превращал разработку в шаманство с бубном, обнулял оценки в экзаменационной ведомости и выключал аэродинамику одной строкой.
Пришло время подвести итоги!
Участники сезона «ИИ в разработке» представили много самых разных примеров использования искусственного интеллекта, рассказали об интересных проектах, но победителями стали лишь 15 авторов. Чем же они пользовались в работе? Посмотрим на статистику упоминаний среди статей победителей:
Qwen (27)
Claude (24)
Cursor (17)
GigaChat (14)
OpenAI (12)
DeepSeek (11)
GigaAM (10)
Gemini (9)
Отдельной линией сезона стало практическое использование отечественных открытых моделей — не в лабораторных условиях, а в реальных сценариях разработки. Накануне старта сезона Сбер выкатил веса моделей в открытый доступ. В open source ушли GigaChat 3 Ultra Preview на 702B параметров, подходящая для локального использования в качестве ассистента GigaChat Lightning, набор из пяти моделей для распознавания речи GigaAM-v3, Kandinsky 5.0 и Автокодировщик K-VAE 1.0 для ускорения генеративного AI.
Одним из первых @konstantin_kozhin захотел проверить их в реальном сценарии. Так, он разработал Telegram-бота для преобразования голосовых сообщений в текст, использовав модель GigaAM-v3. Почему бы, собственно, не воспользоваться расшифровщиком в премиум-аккаунте в ТГ? Потому что он не работает с произвольными файлами и не способен «переварить» длинные сообщения.
А хабрапользователь @golangloves протестировал версию Lightning, сравнил бенчмарки с Qwen и показал, как запустить модель без затрат на железо. Автор отметил, что для задач на русском языке и работы с длинными контекстами Lightning — одна из лучших открытых моделей в своём классе. Вот здесь можно почитать результаты эксперимента. Статьи @konstantin_kozhin и @golangloves вошли в топ-15 лучших в сезоне по рейтингу.
Наши победители сумели вовлечь хабрапользователей в активное обсуждение темы. Именно признание сообщества — главная ценность сезона. Комментаторы на Хабре традиционно выступили в роли ревью-комитета, и часть проектов стала лучше именно благодаря участию сообщества: здесь подсказывали, спорили, совершенствовали код, помогали доводить проекты до ума. Но есть и материальные призы: топ-5 авторов получат по 50 000 рублей, ещё 10 участников — по 25 000 рублей.
Суммарно статьи собрали 808 плюсов, 1281 добавление в избранное и 632 комментария.
Под спойлером — таблица со всеми статьями сезона, упорядоченными по рейтингу.|
Статья |
Автор |
|
Джун наоборот или разоблачение главного мифа вайб-кодинга |
@master_program |
|
Страх и ненависть вайб-кодинга: как я сделал для ребенка игру и попал в топ приложений на android-TV |
@Lkalyadin10 |
|
Вайбанутым нет покоя |
@fedignat |
|
Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России |
@snakers4 |
|
Вайб вместо звука: как я за вечер собрал вибровариометр на ESP32, а Gemini и ко сгенерировали всё, кроме пайки |
@gliderman |
|
Синдром бесконечного окна: почему 1 миллион токенов в LLM не решает ваши проблемы (пока) |
@Ser_no |
|
Мультиагентная разработка в Cursor: как заставить субагентов работать на большие проекты |
@rdudov |
|
Поиск в личном фото архиве по текстовому описанию |
@virex |
|
Главная проблема использования ИИ (Иллюзии Интеллекта) при разработке ПО |
@rsashka |
|
От голосовых к тексту: делаем Telegram-бота для расшифровки аудио на open source модели от СБЕР — GigaAM-v3 |
@konstantin_kozhin |
|
Как улучшить качество Claude Code, Cursor и др. в несколько раз? Мой личный опыт |
@Dmitrii-Chashchin |
|
Ночь, телескоп, ИИ, комета: анализ спектра 3I/ATLAS с собственным Python-pipeline |
@Dorial |
|
Mixture-of-Experts: архитектура, которая спасает LLM от их собственного аппетита |
@full_moon |
|
GigaChat 3 Lightning: разбираем open source модель от Сбера |
@golangloves |
|
Прощай, ЖЖ — cпасаем заметки Python-скриптом |
@gliderman |
|
Мебельный гвоздь в крышку гроба AGI |
@master_program |
|
Как я тв-шоу переводил с помощью ML-моделей без подписок и СМС |
@CyberexTech |
|
«Господин Говорунъ: как я обучил маленькую модель разговаривать на дореформенном русском» |
@konstantin_kozhin |
|
OpenAI и ее патенты: кто стоит за разработками компании |
@sokolovps |
|
Внедряем Gemini во все поля ввода Windows: Бесплатно, без смс и с обходом ограничений |
@VetaOne |
|
Cчитаем финансовый эффект от ИИ, ML и LLM в банке без магии — с калькулятором |
@mvoytko |
|
ML на Мосбирже — почему мой грааль не работает? |
@empenoso |
|
Новогодний подарок: Как я прикрутил LLM к scratch и порадовал ребёнка |
@LeXaNe |
|
300 дней с AI-агентами: от руководителя к Full Cycle Engineer |
@akozhin |
|
Оцифровываем сырую документацию компании с помощью ИИ локально! DeepSeek-OCR + Qwen 1.5 |
@Dmitrii-Chashchin |
|
Атаки на AI-агенты: примеры угроз и опыт участия в Agent Breaker CTF |
@mmvds |
|
Как случайный код Пелевина стал пророчеством о гигаваттах для ИИ-агентов |
@Danil_ka88 |
|
Подземелье c LLM-экспертами: используем PocketFlow и MCP для объяснения настолок |
@Phoenix133 |
|
Laravel Copilot Workspace: как я собрал полный цикл разработки вокруг Copilot-агентов |
@zabarov |
|
Знаний слишком много. Что делать? |
@flancer |
|
Как квантовать LLM. Практическое руководство для начинающих |
@maksimov_m |
|
Базовый RAG-компонент для локального семантического поиска на Питоне |
@AKAZ |
|
Machine Unlearning. Часть 1: Почему моделям нужно уметь забывать |
@MidavNibush |
|
Вкалывают роботы, а не человек, или как убрать рутину из работы при помощи ИИ |
@VasilkovN |
|
Код пишет нейросеть. Что остается разработчику? |
@mpanfilov |
|
LLM — не один большой «мозг», а команда ролей. Как собрать AI-workflow в Claude Code и уйти от вайб-коддинга |
@GrinRus |
|
RealTime FaceSwap-10k — датасет для задачи детекции real-time дипфейков |
@starikovplusplus |
|
Хакатон Норникеля: как мы выжали максимум из YOLO и заняли 2 место |
@Sherstpasha |
|
Тестируем GigaChat на наличие сознания доступа |
@Kamil_GR |
|
Как я создал «Тунец» — платформу для попадания в ответы нейросетей с помощью нейросетей… |
@Ja-gagarin |
|
Сравнение ИИ для участия в контесте по вайбкодигу |
@kosyakus |
|
Как я за год переквалифицировался в ИИ-инженера: от DevOps до production-ready AI-агентов |
@alexcollin |
|
RAG-помощник для команды саппорта своими руками |
@vdrobot |
|
Автоматизация фоновой аналитики в финтехе с помощью background LLM‑агента: реальный опыт |
@MaximML |
|
Мы боялись за джунов, но всё будет иначе или по-другому, а может, вообще не так, как думали |
@Danil_ka88 |
|
Огромный гайд: продвинутые советы и хитрости для работы с Gemini CLI и другими AI CLI утилитами |
@python_leader |
|
Как «думает» ИИ: гроккаем разреженные автоэнкодеры (SAE) |
@Ivanich-spb |
|
ИИ как инструмент для создания реальных объектов: от генерации картинки к 3D-печатной игрушке |
@Danil_ka88 |
|
Применение ИИ в бэкенд-разработке приложения Бургер Кинг: шаблоны, контекст и кодогенерация |
@ZeBrains_team |
|
Стремимся к AGI: обучаем нейросети в экосистеме эволюционно с нуля |
@LanskoyGames |
|
Будильник для зимы: как я подружил лампу Ильича, ZigBee и LLM |
@gliderman |
|
Фактчекинг за $0.09: GPT-5-mini + Perplexity sonar-pro в продакшене |
@DankosJP |
|
Учимся правильно использовать ИИ при разработке программного обеспечения |
@rsashka |
|
Запускаем LLM на iPhone локально — мой опыт с Gemma 2B |
@Dmitrii-Chashchin |
|
AI+RAG в системе отчетности |
@SmartSmall |
|
Upgrade: OpenSpec и Beads в Cursor |
@comerc |
|
Сбер проник в n8n и фильтрует нам лидов: как мы подключили Отечественную нейросеть к автоматизациям |
@Aleron75 |
|
Гибридная нейросимвольная архитектура для превращения вероятностных ответов LLM в детерминированный код |
@leleleonid |
|
Зачем ИИ системному аналитику |
@BA_TW |
|
Не читал, но одобряю: пишем софт для быстрого анализа пользовательских соглашений |
@beatwad |
|
Сыч: телеграм-бот, который помнит обиды и обходит лимиты Google Gemini |
@VetaOne |
|
Вайбкодинг с нейросетью 1: проверяю сборку Flutter-приложения в AppImage |
@Arduinum |
|
Как ИИ помогает проектировать базы данных |
@Rikkster |
|
Избавляемся от ошибок Segmentation fault из-за переполнения стека в С++ |
@rsashka |
|
Meeting-LLM: Транскрипция + ИИ-анализ совещаний в одном окне своими руками (T-One + GPT-OSS-20B) |
@Dmitrii-Chashchin |
|
TSP трансформеры |
@welcome2hype |
|
Эксперимент по подстройке Gemma 3 для вызова процедур |
@DSDenisov |
|
Data-Feeling-School-RAG-Challenge или по ту сторону баррикад |
@IgorSh63 |
|
От 4/10 до 8.5/10: как я за 5 итераций научил GigaChat извлекать требования из интервью |
@aeremenok |
|
Вайб-ЛЛМинг. AI агенты теперь сами обучают LLM с помощью Hugging Face Skills |
@Biryukovlex |
|
Как написать код в два счёта: впрягаем Codex с GPT |
@zabarov |
|
3 главных инсайта о «взломах» LLM из исследования StrongREJECT |
@Ivanich-spb |
|
7 причин, почему ваш ИИ тупит (и как это исправить) |
@celen |
|
Multi-API Ensemble: 95% точности транскрипции региональных топонимов |
@men10577 |
|
Учебник для искусственного разума: как я сделал ИИ-помощника по планированию для 1С:ERP |
@parusimore |
|
Обзор проекта WhisperLiveKit — синхронный перевод между любыми языками |
@SlavikF |
|
Нейроакварель. Тестируем разные ИИ-решения для создания эффекта живописи красками |
@GeorgyKurakin |
|
Roo Code для тестировщика: как превратить обязательные запросы к DeepSeek в реальную пользу |
@aeremenok |
|
Оптимизация пагинации в PostgreSQL: Как настройка work_mem превратила ROW_NUMBER в лидера производительности |
@pg_expecto |
|
PG_EXPECTO: Анализ влияния размера shared_buffers на производительность СУБД PostgreSQL |
@pg_expecto |
|
Как я подключил ИИ к КуМиру: простой способ сделать школьный язык «умным» |
@wsda228 |
|
Как прикрутить AI к табуретке |
@vital_pavlenko |
|
Умеет ли Gemini в TTS и транскрибацию? |
@RS_AI |
|
История о том как «Очень хочется, но ты зеленый» |
@Infernobeef |
|
Vibe Pentesting: Интегрируем HexStrike AI и OpenCode в Kali Linux |
@Chumikov |
|
Ускорение разработки с ИИ на примере DAX и Power BI |
@koanse |
|
Нечеловек, который изменил всё: как эффективно работать с ИИ, на примере создания схем бизнес-процессов в BPMN |
@parusimore |
|
Инструмент c AI-логикой для создания дерева метрик MetricTree |
@v_v_pavloff |
|
Как я делаю «снимок» проекта в JSON для ИИ и разворачиваю его обратно |
@zabarov |
|
Kandinsky 5.0 vs Stable Diffusion: практический тест на 6 сценариях для иллюстраций и ассетов |
@Efrosim123 |
|
Дрейф, потеря контекста и «уверенная чушь»: протокол восстановления SDX-S |
@Ded_Egor |
|
Сделай бота для работы |
@AlexeySushkov |
|
Как мы учили ИИ тушить инциденты вместо нас (что из этого вышло) |
@Up4Soft |
|
Прогноз нейросети — Когда теория проигрывает практике или почему ROW_NUMBER() не стал королём пагинации PostgreSQL |
@pg_expecto |
Рассмотрим подробнее лидеров рейтинга и о чём они успели написать за прошедшие два месяца.
Джун наоборот
Притчей во языцех стало мнение о том, что ИИ работает как джуниор-разработчик. С этим категорически не согласен хабрапользователь @master_program. Для него ИИ — всё-таки джун наоборот. Чтобы доказать это, автор попытался создать код для решения задачи моделирования полёта ракеты в атмосфере. ИИ сгенерировал код, но при перепроверке не смог найти большую часть ошибок. Кроме того, написал аэродинамику и выключил её сам. Подробности — в статье Джун наоборот или разоблачение главного мифа вайб-кодинга.
В геймдев с двух ног
А вот @Lkalyadin10 доказал, что ИИ — это джун. Когда его шестилетняя дочка, которая любит проходить лабиринты, не хотела ложиться спать, он начал разработку собственной игры для неё. Игра выстрелила в топе приложений для Android TV. Как у автора это получилось, читайте в статье Страх и ненависть вайб-кодинга: как я сделал для ребенка игру и попал в топ приложений на android-TV. Приятно, что сезон получился полезным и познавательным не только для авторского сообщества, но и для малышей!
Ни капли в рот, ни буквы в код
Представьте, что вы преподаватель и каждый раз заполняете десятки бумажных ведомостей. Пользователь @fedignat решил заменить их android‑приложением для приёма экзаменов и выставления оценок, учёта пересдачи и фиксации IP машины студента, если он работает с компьютера в аудитории. Сначала вайб-кодинг удавался, но в час X во время приёма экзамена первая же оценка просто исчезла. Кейс показал: без понимания разработки даже с ИИ создать надёжный продукт сложно. Так что «эра индивидуальных приложений» ещё не наступила. Читайте подробнее в статье Вайбанутым нет покоя.
Дружба народов
Команда, в которую входит автор @snakers4, провела титаническую работу: после выбора 20 языков собрала голоса носителей на родном и на русском, а затем создала ПО для синтеза речи на этих языках. Теперь любой голос в модели может говорить на всех поддержанных языках. Подробнее о проекте читайте в статье: Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России.
Мой параплан, мой парапла-а-ан…
От программных проектов — к «железу». Пользователь @gliderman решил превратить часы в вибровариометр. Парапланеристы используют вариометры для измерения вертикальной скорости параплана, и не всем нравится, как они пищат. В своём проекте @gliderman решил исправить это, чтобы вместо звука часы подавали тактильный сигнал, вибрировали. Так пилот сможет наслаждаться шумом ветра, а не раздражаться от писка. Что получилась, читайте в статье Вайб вместо звука: как я за вечер собрал вибровариометр на ESP32, а Gemini и ко сгенерировали всё, кроме пайки. Как обычно на Хабре, комментарии имеют огромную ценность: ряд проблем с устройством помогли решить другие пользователи.
Авторы следующих 10 статей по списку получат по 25 000 рублей. На шестом месте рейтинга – @Ser_no который разбирается, почему разработчики заливают в промпт целые книги, логи за неделю и дампы баз данных, а на выходе получают галлюцинации и «кашу», почему «поддерживаемый контекст» ≠ «рабочий контекст», что такое Context Rot (гниение контекста) и как с этим жить.
Автор @rdudov рассказал о мультиагентной разработке в Cursor. В Claude Code есть субагенты: экземпляры того же агента, но с фиксированным промптом и чёткими входными данными. Но не всё так радужно — в Claude Code есть vendor lock на модели Anthropic, а доступ к некоторым моделям дают только дорогие тарифы. Автор разбирал, как такой подход можно запустить в Cursor.
Давно ли вы пытались разобрать ваши снимки, сделанные хотя бы за один год? Или за один отпуск… @virex для решения этой проблемы написал поиск в личном архиве по текстовому описанию. Статья — по ссылке.
@rsashka расшифровывает ИИ не как «искусственный интеллект», а как «иллюзия интеллекта». Его поражает, как можно спорить: есть ли у LLM интеллект, или это всего лишь математические вычисления по определённому алгоритму. Автор считает, что нет смысла создавать рассуждающую иллюзию интеллекта, потому что «имитация разума превращает потенциально полезный рабочий инструмент в игру на бубне без каких-либо гарантий качества и воспроизводимости полученных результатов».
@Dmitrii-Chashchin подготовил чек-лист для разработчика, который способен помочь ИИ не топтаться на месте, создавая выдуманные переменные, кучу дублей файлов и добавляя баги. Автор рассказывает, как создать агента, способного следить за проектом и грамотно фиксить код.
Пришло время добавить немного космоса. В этом нам поможет @Dorial любитель-астроном наблюдает за 3I/ATLAS, получает свежие фото и FITS-файлы и анализирует спектр 3I/ATLAS с помощью собственного Python-pipeline. Автор рассказал, как ИИ открывает двери в науку всем желающим.
Суть метода Mixture-of-Experts: перестать «думать» всей нейросетью над каждой задачей и научить модель активировать ресурсы выборочно. Автор @full_moon рассказал о том, как работает эта архитектура, какой путь прошла за последние годы, и задаёт нам вопрос: действительно ли за МоЕ будущее или её роль сильно переоценена?
@CyberexTech решил реализовать сервис машинного закадрового перевода видео с помощью общедоступных моделей с локальным запуском. По ссылке в статье посмотрите, что получилось, на примере интервью с Томом Холландом. Интересно, что для проекта использована модель для синтеза Silero Speech, то есть продукт команды, статья которой заняла четвёртое место в этом сезоне.
Сезон «ИИ в разработке» наглядно показал: сообществу интересен не сам по себе искусственный интеллект, а его практическая применимость. Наибольшую вовлечённость получили инженерные кейсы, когда ИИ встраивается в реальный процесс разработки со всеми его ограничениями. Границы технологий стали заметнее. ИИ сегодня способен ускорять работу, но легко теряет контекст и не умеет отвечать за результат. Чем выше цена ошибки, тем критичнее роль человека.
Ещё один устойчивый тренд сезона — гибридный подход. Авторы редко ограничивались одним инструментом: одну модель использовали для генерации кода, другую — для анализа и ревью, третью — для речи и изображений. Отдельно стоит отметить роль отечественных моделей. В рамках сезона веса GigaChat использовались как полноценные рабочие инструменты: авторы запускали их локально, встраивали в собственные пайплайны, сравнивали с зарубежными аналогами и отмечали сильные стороны — прежде всего в задачах на русском языке, работе с длинными контекстами, воспроизводимости и контроле над инфраструктурой.
Сезон «ИИ в разработке» завершён. Но разговор о том, как именно и зачем мы используем искусственный интеллект, только начинается. И опыт, которым вы поделились, — в виде кода, проектов и собственных выводов — останется с сообществом навсегда.
Этой зимой на Хабре говорили о том, как искусственный интеллект показывает себя в реальной разработке и повседневных задачах. Участники сезона «ИИ в разработке» пробовали ИИ в самых разных ролях: от экзаменационного ассистента до соавтора open source проектов. Наши герои создавали игру для ребёнка с помощью ИИ (отдельный респект за попытку объяснить шестилетнему ребёнку схему разработки), вайб-кодили инструмент для поиска снимков в собственном фотоархиве (разобрать фото — наверняка боль для многих…), проектировали вибрационный вариометр для парапланеризма.
Где‑то ИИ честно экономил десятки часов и помогал одному человеку тянуть проекты «на уровне команды», а где‑то превращал разработку в шаманство с бубном, обнулял оценки в экзаменационной ведомости и выключал аэродинамику одной строкой.
Пришло время подвести итоги!
Участники сезона «ИИ в разработке» представили много самых разных примеров использования искусственного интеллекта, рассказали об интересных проектах, но победителями стали лишь 15 авторов. Чем же они пользовались в работе? Посмотрим на статистику упоминаний среди статей победителей:
Qwen (27)
Claude (24)
Cursor (17)
GigaChat (14)
OpenAI (12)
DeepSeek (11)
GigaAM (10)
Gemini (9)
Отдельной линией сезона стало практическое использование отечественных открытых моделей — не в лабораторных условиях, а в реальных сценариях разработки. Накануне старта сезона Сбер выкатил веса моделей в открытый доступ. В open source ушли GigaChat 3 Ultra Preview на 702B параметров, подходящая для локального использования в качестве ассистента GigaChat Lightning, набор из пяти моделей для распознавания речи GigaAM-v3, Kandinsky 5.0 и Автокодировщик K-VAE 1.0 для ускорения генеративного AI.
Одним из первых @konstantin_kozhin захотел проверить их в реальном сценарии. Так, он разработал Telegram-бота для преобразования голосовых сообщений в текст, использовав модель GigaAM-v3. Почему бы, собственно, не воспользоваться расшифровщиком в премиум-аккаунте в ТГ? Потому что он не работает с произвольными файлами и не способен «переварить» длинные сообщения.
А хабрапользователь @golangloves протестировал версию Lightning, сравнил бенчмарки с Qwen и показал, как запустить модель без затрат на железо. Автор отметил, что для задач на русском языке и работы с длинными контекстами Lightning — одна из лучших открытых моделей в своём классе. Вот здесь можно почитать результаты эксперимента. Статьи @konstantin_kozhin и @golangloves вошли в топ-15 лучших в сезоне по рейтингу.
Наши победители сумели вовлечь хабрапользователей в активное обсуждение темы. Именно признание сообщества — главная ценность сезона. Комментаторы на Хабре традиционно выступили в роли ревью-комитета, и часть проектов стала лучше именно благодаря участию сообщества: здесь подсказывали, спорили, совершенствовали код, помогали доводить проекты до ума. Но есть и материальные призы: топ-5 авторов получат по 50 000 рублей, ещё 10 участников — по 25 000 рублей.
Суммарно статьи собрали 808 плюсов, 1281 добавление в избранное и 632 комментария.
Под спойлером — таблица со всеми статьями сезона, упорядоченными по рейтингу.|
Статья |
Автор |
|
Джун наоборот или разоблачение главного мифа вайб-кодинга |
@master_program |
|
Страх и ненависть вайб-кодинга: как я сделал для ребенка игру и попал в топ приложений на android-TV |
@Lkalyadin10 |
|
Вайбанутым нет покоя |
@fedignat |
|
Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России |
@snakers4 |
|
Вайб вместо звука: как я за вечер собрал вибровариометр на ESP32, а Gemini и ко сгенерировали всё, кроме пайки |
@gliderman |
|
Синдром бесконечного окна: почему 1 миллион токенов в LLM не решает ваши проблемы (пока) |
@Ser_no |
|
Мультиагентная разработка в Cursor: как заставить субагентов работать на большие проекты |
@rdudov |
|
Поиск в личном фото архиве по текстовому описанию |
@virex |
|
Главная проблема использования ИИ (Иллюзии Интеллекта) при разработке ПО |
@rsashka |
|
От голосовых к тексту: делаем Telegram-бота для расшифровки аудио на open source модели от СБЕР — GigaAM-v3 |
@konstantin_kozhin |
|
Как улучшить качество Claude Code, Cursor и др. в несколько раз? Мой личный опыт |
@Dmitrii-Chashchin |
|
Ночь, телескоп, ИИ, комета: анализ спектра 3I/ATLAS с собственным Python-pipeline |
@Dorial |
|
Mixture-of-Experts: архитектура, которая спасает LLM от их собственного аппетита |
@full_moon |
|
GigaChat 3 Lightning: разбираем open source модель от Сбера |
@golangloves |
|
Прощай, ЖЖ — cпасаем заметки Python-скриптом |
@gliderman |
|
Мебельный гвоздь в крышку гроба AGI |
@master_program |
|
Как я тв-шоу переводил с помощью ML-моделей без подписок и СМС |
@CyberexTech |
|
«Господин Говорунъ: как я обучил маленькую модель разговаривать на дореформенном русском» |
@konstantin_kozhin |
|
OpenAI и ее патенты: кто стоит за разработками компании |
@sokolovps |
|
Внедряем Gemini во все поля ввода Windows: Бесплатно, без смс и с обходом ограничений |
@VetaOne |
|
Cчитаем финансовый эффект от ИИ, ML и LLM в банке без магии — с калькулятором |
@mvoytko |
|
ML на Мосбирже — почему мой грааль не работает? |
@empenoso |
|
Новогодний подарок: Как я прикрутил LLM к scratch и порадовал ребёнка |
@LeXaNe |
|
300 дней с AI-агентами: от руководителя к Full Cycle Engineer |
@akozhin |
|
Оцифровываем сырую документацию компании с помощью ИИ локально! DeepSeek-OCR + Qwen 1.5 |
@Dmitrii-Chashchin |
|
Атаки на AI-агенты: примеры угроз и опыт участия в Agent Breaker CTF |
@mmvds |
|
Как случайный код Пелевина стал пророчеством о гигаваттах для ИИ-агентов |
@Danil_ka88 |
|
Подземелье c LLM-экспертами: используем PocketFlow и MCP для объяснения настолок |
@Phoenix133 |
|
Laravel Copilot Workspace: как я собрал полный цикл разработки вокруг Copilot-агентов |
@zabarov |
|
Знаний слишком много. Что делать? |
@flancer |
|
Как квантовать LLM. Практическое руководство для начинающих |
@maksimov_m |
|
Базовый RAG-компонент для локального семантического поиска на Питоне |
@AKAZ |
|
Machine Unlearning. Часть 1: Почему моделям нужно уметь забывать |
@MidavNibush |
|
Вкалывают роботы, а не человек, или как убрать рутину из работы при помощи ИИ |
@VasilkovN |
|
Код пишет нейросеть. Что остается разработчику? |
@mpanfilov |
|
LLM — не один большой «мозг», а команда ролей. Как собрать AI-workflow в Claude Code и уйти от вайб-коддинга |
@GrinRus |
|
RealTime FaceSwap-10k — датасет для задачи детекции real-time дипфейков |
@starikovplusplus |
|
Хакатон Норникеля: как мы выжали максимум из YOLO и заняли 2 место |
@Sherstpasha |
|
Тестируем GigaChat на наличие сознания доступа |
@Kamil_GR |
|
Как я создал «Тунец» — платформу для попадания в ответы нейросетей с помощью нейросетей… |
@Ja-gagarin |
|
Сравнение ИИ для участия в контесте по вайбкодигу |
@kosyakus |
|
Как я за год переквалифицировался в ИИ-инженера: от DevOps до production-ready AI-агентов |
@alexcollin |
|
RAG-помощник для команды саппорта своими руками |
@vdrobot |
|
Автоматизация фоновой аналитики в финтехе с помощью background LLM‑агента: реальный опыт |
@MaximML |
|
Мы боялись за джунов, но всё будет иначе или по-другому, а может, вообще не так, как думали |
@Danil_ka88 |
|
Огромный гайд: продвинутые советы и хитрости для работы с Gemini CLI и другими AI CLI утилитами |
@python_leader |
|
Как «думает» ИИ: гроккаем разреженные автоэнкодеры (SAE) |
@Ivanich-spb |
|
ИИ как инструмент для создания реальных объектов: от генерации картинки к 3D-печатной игрушке |
@Danil_ka88 |
|
Применение ИИ в бэкенд-разработке приложения Бургер Кинг: шаблоны, контекст и кодогенерация |
@ZeBrains_team |
|
Стремимся к AGI: обучаем нейросети в экосистеме эволюционно с нуля |
@LanskoyGames |
|
Будильник для зимы: как я подружил лампу Ильича, ZigBee и LLM |
@gliderman |
|
Фактчекинг за $0.09: GPT-5-mini + Perplexity sonar-pro в продакшене |
@DankosJP |
|
Учимся правильно использовать ИИ при разработке программного обеспечения |
@rsashka |
|
Запускаем LLM на iPhone локально — мой опыт с Gemma 2B |
@Dmitrii-Chashchin |
|
AI+RAG в системе отчетности |
@SmartSmall |
|
Upgrade: OpenSpec и Beads в Cursor |
@comerc |
|
Сбер проник в n8n и фильтрует нам лидов: как мы подключили Отечественную нейросеть к автоматизациям |
@Aleron75 |
|
Гибридная нейросимвольная архитектура для превращения вероятностных ответов LLM в детерминированный код |
@leleleonid |
|
Зачем ИИ системному аналитику |
@BA_TW |
|
Не читал, но одобряю: пишем софт для быстрого анализа пользовательских соглашений |
@beatwad |
|
Сыч: телеграм-бот, который помнит обиды и обходит лимиты Google Gemini |
@VetaOne |
|
Вайбкодинг с нейросетью 1: проверяю сборку Flutter-приложения в AppImage |
@Arduinum |
|
Как ИИ помогает проектировать базы данных |
@Rikkster |
|
Избавляемся от ошибок Segmentation fault из-за переполнения стека в С++ |
@rsashka |
|
Meeting-LLM: Транскрипция + ИИ-анализ совещаний в одном окне своими руками (T-One + GPT-OSS-20B) |
@Dmitrii-Chashchin |
|
TSP трансформеры |
@welcome2hype |
|
Эксперимент по подстройке Gemma 3 для вызова процедур |
@DSDenisov |
|
Data-Feeling-School-RAG-Challenge или по ту сторону баррикад |
@IgorSh63 |
|
От 4/10 до 8.5/10: как я за 5 итераций научил GigaChat извлекать требования из интервью |
@aeremenok |
|
Вайб-ЛЛМинг. AI агенты теперь сами обучают LLM с помощью Hugging Face Skills |
@Biryukovlex |
|
Как написать код в два счёта: впрягаем Codex с GPT |
@zabarov |
|
3 главных инсайта о «взломах» LLM из исследования StrongREJECT |
@Ivanich-spb |
|
7 причин, почему ваш ИИ тупит (и как это исправить) |
@celen |
|
Multi-API Ensemble: 95% точности транскрипции региональных топонимов |
@men10577 |
|
Учебник для искусственного разума: как я сделал ИИ-помощника по планированию для 1С:ERP |
@parusimore |
|
Обзор проекта WhisperLiveKit — синхронный перевод между любыми языками |
@SlavikF |
|
Нейроакварель. Тестируем разные ИИ-решения для создания эффекта живописи красками |
@GeorgyKurakin |
|
Roo Code для тестировщика: как превратить обязательные запросы к DeepSeek в реальную пользу |
@aeremenok |
|
Оптимизация пагинации в PostgreSQL: Как настройка work_mem превратила ROW_NUMBER в лидера производительности |
@pg_expecto |
|
PG_EXPECTO: Анализ влияния размера shared_buffers на производительность СУБД PostgreSQL |
@pg_expecto |
|
Как я подключил ИИ к КуМиру: простой способ сделать школьный язык «умным» |
@wsda228 |
|
Как прикрутить AI к табуретке |
@vital_pavlenko |
|
Умеет ли Gemini в TTS и транскрибацию? |
@RS_AI |
|
История о том как «Очень хочется, но ты зеленый» |
@Infernobeef |
|
Vibe Pentesting: Интегрируем HexStrike AI и OpenCode в Kali Linux |
@Chumikov |
|
Ускорение разработки с ИИ на примере DAX и Power BI |
@koanse |
|
Нечеловек, который изменил всё: как эффективно работать с ИИ, на примере создания схем бизнес-процессов в BPMN |
@parusimore |
|
Инструмент c AI-логикой для создания дерева метрик MetricTree |
@v_v_pavloff |
|
Как я делаю «снимок» проекта в JSON для ИИ и разворачиваю его обратно |
@zabarov |
|
Kandinsky 5.0 vs Stable Diffusion: практический тест на 6 сценариях для иллюстраций и ассетов |
@Efrosim123 |
|
Дрейф, потеря контекста и «уверенная чушь»: протокол восстановления SDX-S |
@Ded_Egor |
|
Сделай бота для работы |
@AlexeySushkov |
|
Как мы учили ИИ тушить инциденты вместо нас (что из этого вышло) |
@Up4Soft |
|
Прогноз нейросети — Когда теория проигрывает практике или почему ROW_NUMBER() не стал королём пагинации PostgreSQL |
@pg_expecto |
Рассмотрим подробнее лидеров рейтинга и о чём они успели написать за прошедшие два месяца.
Джун наоборот
Притчей во языцех стало мнение о том, что ИИ работает как джуниор-разработчик. С этим категорически не согласен хабрапользователь @master_program. Для него ИИ — всё-таки джун наоборот. Чтобы доказать это, автор попытался создать код для решения задачи моделирования полёта ракеты в атмосфере. ИИ сгенерировал код, но при перепроверке не смог найти большую часть ошибок. Кроме того, написал аэродинамику и выключил её сам. Подробности — в статье Джун наоборот или разоблачение главного мифа вайб-кодинга.
В геймдев с двух ног
А вот @Lkalyadin10 доказал, что ИИ — это джун. Когда его шестилетняя дочка, которая любит проходить лабиринты, не хотела ложиться спать, он начал разработку собственной игры для неё. Игра выстрелила в топе приложений для Android TV. Как у автора это получилось, читайте в статье Страх и ненависть вайб-кодинга: как я сделал для ребенка игру и попал в топ приложений на android-TV. Приятно, что сезон получился полезным и познавательным не только для авторского сообщества, но и для малышей!
Ни капли в рот, ни буквы в код
Представьте, что вы преподаватель и каждый раз заполняете десятки бумажных ведомостей. Пользователь @fedignat решил заменить их android‑приложением для приёма экзаменов и выставления оценок, учёта пересдачи и фиксации IP машины студента, если он работает с компьютера в аудитории. Сначала вайб-кодинг удавался, но в час X во время приёма экзамена первая же оценка просто исчезла. Кейс показал: без понимания разработки даже с ИИ создать надёжный продукт сложно. Так что «эра индивидуальных приложений» ещё не наступила. Читайте подробнее в статье Вайбанутым нет покоя.
Дружба народов
Команда, в которую входит автор @snakers4, провела титаническую работу: после выбора 20 языков собрала голоса носителей на родном и на русском, а затем создала ПО для синтеза речи на этих языках. Теперь любой голос в модели может говорить на всех поддержанных языках. Подробнее о проекте читайте в статье: Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России.
Мой параплан, мой парапла-а-ан…
От программных проектов — к «железу». Пользователь @gliderman решил превратить часы в вибровариометр. Парапланеристы используют вариометры для измерения вертикальной скорости параплана, и не всем нравится, как они пищат. В своём проекте @gliderman решил исправить это, чтобы вместо звука часы подавали тактильный сигнал, вибрировали. Так пилот сможет наслаждаться шумом ветра, а не раздражаться от писка. Что получилась, читайте в статье Вайб вместо звука: как я за вечер собрал вибровариометр на ESP32, а Gemini и ко сгенерировали всё, кроме пайки. Как обычно на Хабре, комментарии имеют огромную ценность: ряд проблем с устройством помогли решить другие пользователи.
Авторы следующих 10 статей по списку получат по 25 000 рублей. На шестом месте рейтинга – @Ser_no который разбирается, почему разработчики заливают в промпт целые книги, логи за неделю и дампы баз данных, а на выходе получают галлюцинации и «кашу», почему «поддерживаемый контекст» ≠ «рабочий контекст», что такое Context Rot (гниение контекста) и как с этим жить.
Автор @rdudov рассказал о мультиагентной разработке в Cursor. В Claude Code есть субагенты: экземпляры того же агента, но с фиксированным промптом и чёткими входными данными. Но не всё так радужно — в Claude Code есть vendor lock на модели Anthropic, а доступ к некоторым моделям дают только дорогие тарифы. Автор разбирал, как такой подход можно запустить в Cursor.
Давно ли вы пытались разобрать ваши снимки, сделанные хотя бы за один год? Или за один отпуск… @virex для решения этой проблемы написал поиск в личном архиве по текстовому описанию. Статья — по ссылке.
@rsashka расшифровывает ИИ не как «искусственный интеллект», а как «иллюзия интеллекта». Его поражает, как можно спорить: есть ли у LLM интеллект, или это всего лишь математические вычисления по определённому алгоритму. Автор считает, что нет смысла создавать рассуждающую иллюзию интеллекта, потому что «имитация разума превращает потенциально полезный рабочий инструмент в игру на бубне без каких-либо гарантий качества и воспроизводимости полученных результатов».
@Dmitrii-Chashchin подготовил чек-лист для разработчика, который способен помочь ИИ не топтаться на месте, создавая выдуманные переменные, кучу дублей файлов и добавляя баги. Автор рассказывает, как создать агента, способного следить за проектом и грамотно фиксить код.
Пришло время добавить немного космоса. В этом нам поможет @Dorial любитель-астроном наблюдает за 3I/ATLAS, получает свежие фото и FITS-файлы и анализирует спектр 3I/ATLAS с помощью собственного Python-pipeline. Автор рассказал, как ИИ открывает двери в науку всем желающим.
Суть метода Mixture-of-Experts: перестать «думать» всей нейросетью над каждой задачей и научить модель активировать ресурсы выборочно. Автор @full_moon рассказал о том, как работает эта архитектура, какой путь прошла за последние годы, и задаёт нам вопрос: действительно ли за МоЕ будущее или её роль сильно переоценена?
@CyberexTech решил реализовать сервис машинного закадрового перевода видео с помощью общедоступных моделей с локальным запуском. По ссылке в статье посмотрите, что получилось, на примере интервью с Томом Холландом. Интересно, что для проекта использована модель для синтеза Silero Speech, то есть продукт команды, статья которой заняла четвёртое место в этом сезоне.
Сезон «ИИ в разработке» наглядно показал: сообществу интересен не сам по себе искусственный интеллект, а его практическая применимость. Наибольшую вовлечённость получили инженерные кейсы, когда ИИ встраивается в реальный процесс разработки со всеми его ограничениями. Границы технологий стали заметнее. ИИ сегодня способен ускорять работу, но легко теряет контекст и не умеет отвечать за результат. Чем выше цена ошибки, тем критичнее роль человека.
Ещё один устойчивый тренд сезона — гибридный подход. Авторы редко ограничивались одним инструментом: одну модель использовали для генерации кода, другую — для анализа и ревью, третью — для речи и изображений. Отдельно стоит отметить роль отечественных моделей. В рамках сезона веса GigaChat использовались как полноценные рабочие инструменты: авторы запускали их локально, встраивали в собственные пайплайны, сравнивали с зарубежными аналогами и отмечали сильные стороны — прежде всего в задачах на русском языке, работе с длинными контекстами, воспроизводимости и контроле над инфраструктурой.
Сезон «ИИ в разработке» завершён. Но разговор о том, как именно и зачем мы используем искусственный интеллект, только начинается. И опыт, которым вы поделились, — в виде кода, проектов и собственных выводов — останется с сообществом навсегда.
Источник
![[Перевод] Объяснение галлюцинаций LLM](https://mexc-rainbown-activityimages.s3.ap-northeast-1.amazonaws.com/banner/F20250611171322179ZvSQ9JOYMLWD78.png)

