Что 2025 год на самом деле рассказал нам об ИИ: 5 неожиданных уроков, которые меняют всё

Следить за развитием искусственного интеллекта — все равно что пытаться рассмотреть пейзаж из окна мчащегося поезда. Прогресс движется так быстро, а новости порой так противоречивы, что легко растеряться. Для одних мы уже находимся в эпицентре сингулярности, для других — на пороге схлопывания очередного пузыря. Эта постоянная турбулентность создает информационный шум, в котором сложно уловить суть.

В этой статье мы пробиваемся сквозь шум, чтобы выделить пять неожиданных итогов 2025 года, которые формируют более четкую основу для понимания того, куда ИИ движется на самом деле.

ИИ блестяще сдает наши тесты, но, возможно, мы задаем не те вопросы

2025 год стал годом «рассуждающих моделей». Такие системы, как Gemini 3 Pro, научились «думать дольше» перед ответом, что позволило им последовательно бить все отраслевые рекорды — от понимания видео и написания кода до общих логических задач. Однако в этом подходе обнаружился парадоксальный недостаток. Заставляя модель дольше размышлять для победы в тестах, мы повышаем точность, но можем снизить разнообразие ее ответов. Модель с большей вероятностью выдаст один «умный» ответ, но это не обязательно означает, что она находит принципиально новые пути рассуждений, которые не были заложены в ее базовой версии. Впрочем, другой путь — простое увеличение масштаба, то есть количества параметров и данных, — по-прежнему приносит значительные улучшения результатов.

Мы наблюдаем удивительный феномен: какой бы тест ни придумали люди, ИИ вскоре научится его превосходить. И хотя бенчмарки могут быть узкими или их можно «обыграть», сама способность ИИ превосходить любой человеческий стандарт является глубоким и показательным явлением.

Грань между реальным и поддельным официально стерта

В 2025 году AI slop — все те ИИ-сгенерированные видео, которые затопили YouTube и WhatsApp — окончательно стал мейнстримом, и общественное восприятие изменилось. Если раньше подделки были очевидны, то теперь ситуация иная. Это хорошо иллюстрируют следующий  пример:

  • Вирусное видео, где «73-летний мужчина делится жизненными уроками» . Ролик, полностью сгенерированный ИИ, набрал 2,6 миллиона просмотров и обманул сотни тысяч людей. Раздел комментариев был полон искренних и эмоциональных откликов на историю несуществующего человека.

Разница с 2024 годом колоссальна. Тогда главным комментарием под подобным видео было бы: «Это мусор, сделанный ИИ». Сегодня люди либо не замечают подделки, либо им все равно. Мы оказались в мире, в котором никто больше не может доверять тому, что видит или слышит.

Подпишитесь на наш Telegram-канал, чтобы не пропустить новые статьи и оставлять комментарии

Даже ИИ «уровня доктора наук» все еще делает ошибки новичка

Большие надежды на GPT-5 столкнулись с интересной реальностью. Описание модели Сэмом Альтманом выявило распространенное заблуждение об интеллекте ИИ.

GPТ-5 — это первый случай, когда общение с моделью действительно ощущается как разговор с экспертом уровня доктора наук в любой области.

Ошибка заключалась в предположении, что интеллект — это некая единая шкала. Как быстро обнаружили пользователи, способность модели демонстрировать знания «уровня PhD» на конкретных экзаменах не мешает ей делать тривиальные ошибки и допускать базовые галлюцинации в других областях — проблема, которую пользователи быстро обнаружили и которая сохранялась во всех последующих обновлениях. Несмотря на это, для сотен миллионов людей модель действительно стала «в целом умнее» — число еженедельных пользователей выросло с 400 до почти 900 миллионов. Это подчеркивает огромный разрыв между восприятием экспертов и реальной пользой для массового рынка.

Настоящая революция ИИ — не в замене экспертов, а в расширении возможностей всех остальных

Ключевая концепция для понимания будущего ИИ — «горизонтальная продуктивность». Вместо того чтобы зацикливаться на вопросе, сможет ли ИИ превзойти лучших мировых экспертов, стоит обратить внимание на другое: его способность дать неспециалисту навыки на уровне «90-го процентиля» в области, в которой тот ничего не смыслит.

Вот два конкретных примера:

  • Исследование показало, что не-эксперты, использующие передовые ИИ-модели, почти в пять раз чаще составляли работающий протокол для восстановления вируса, чем те, кто пользовался только интернетом.
  • Из личного опыта: мне удалось с помощью Perplexity диагностировать и быстро починить неработающую подсветку приборной панели в автомобиле — задача, которая была бы невыполнима без помощи ИИ, хотя она и не является «авто-электриком».

Из этого можно сделать вывод: даже доступ к «очень несовершенной модели» в любой области сам по себе является невероятным скачком в наших возможностях.

Больше чем ответы: на заре автоматизированных открытий

Большие языковые модели (LLM) — это следующий этап «сжатия информации» в истории человечества, идущий после изобретения письма, печатного станка и поиска Google. LLM изменили саму парадигму: вместо списка «результатов» поиска мы впервые начали получать прямые «ответы», пусть и не всегда идеальные.

Но 2025 год показал контуры следующего, еще более мощного сдвига: перехода к «автоматизированному открытию информации». Это парадигма, которая выходит за рамки простого извлечения известных фактов и нацелена на генерацию принципиально новых знаний. Яркий пример — Alpha Evolve от Google DeepMind. Упрощенно говоря, это система, которая объединяет LLM с автоматическими тестами и эволюционными алгоритмами. Она работает в цикле, чтобы постоянно улучшать существующий код, отбрасывая неудачные варианты и развивая успешные.

Это уже приносит реальные плоды:

  • Разработан более эффективный алгоритм планирования для дата-центров.
  • Найдено упрощение в схемотехнике аппаратных ускорителей.
  • Ускорен процесс обучения той самой LLM, которая лежит в основе системы.

Но самый впечатляющий результат — это открытие первого за 56 лет улучшения для конкретного алгоритма умножения матриц. Это показывает, что будущее не просто за моделями, которые знают, а за системами, которые могут автономно открывать новые, полезные знания.

Заключение: новый вид интеллекта

Итоги 2025 года показывают, что мы отходим от упрощенного взгляда на ИИ через призму человеческого интеллекта (сдача тестов, уровень «PhD»). Мы начинаем понимать его истинное влияние через новые парадигмы, такие как горизонтальная продуктивность и автоматизированные открытия.

Возможно, споры об «IQ» искусственного интеллекта — это лишь отвлекающий маневр. Настоящий вопрос звучит иначе: что произойдет, когда система сможет управлять компанией, научной лабораторией или даже страной лучше, чем любой человек?

Этот материал был подготовлен компанией iRecommendWork. Мы автоматизируем рекрутмент при помощи ИИ, а также помогаем нанимающим менеджерам и HR быстро находить лучших сотрудников через рекомендации и социальные связи. Если вы ищете сотрудников или вам интересны новые подходы к рекрутменту — свяжитесь с нами.