<aside> 💡

Оригинал записи по ссылке

</aside>

Общее саммари

Франсуа Шоле — один из ведущих спикеров в области ИИ. Он создатель библиотеки Keras, автор книги "Глубокое обучение на Python", а также основатель премии ARC — глобального соревнования, направленного на измерение настоящего общего интеллекта.

Он много лет глубоко размышлял над тем, что такое интеллект на самом деле, и почему простое масштабирование современных моделей ИИ недостаточно, чтобы достичь его.

В этом выступлении он разбирает ограничения предобучения и запомненных навыков, а также предлагает путь к настоящему общему интеллекту — ИИ, который способен адаптироваться на лету, рассуждать в новых ситуациях и придумывать оригинальные решения. Он объясняет, почему важны абстракция и композиционность, как ARC стал эталоном прогресса и над чем сейчас работает его команда в новой исследовательской лаборатории под названием Ndea.

🔑 Ключевые блоки выступления

  1. Крах догмы «масштабируй всё» и переход к test-time adaptation.
  2. Как правильно измерять интеллект: ARC-1, ARC-2, ARC-3 и отличие статических навыков от флюидного интеллекта.
  3. Определение интеллекта: эффективность превращения прошлой информации в действие в условиях новизны.
  4. Два типа абстракций (Type 1 vs Type 2) и их роль в мышлении.
  5. Композиция DL + дискретного поиска как путь к AGI.
  6. Гипотеза калейдоскопа: мир состоит из ограниченного набора «атомов смысла».
  7. Будущая архитектура meta-learner-programmer и библиотека переиспользуемых абстракций.
  8. Дорожная карта: решение ARC-2, запуск ARC-3, потом ARC-4 → AGI.

📍 Подробно по каждому блоку

1. Пределы масштабирования и рождение TTA (Test-Time Adaptation)

На протяжении последних лет индустрия ИИ следовала простой логике: больше параметров = умнее модель. С 2019 по 2025 годы масштаб моделей вырос в десятки тысяч раз. Однако на бенчмарке ARC-1 это дало скромный прирост: с 0 % до около 10 %, в то время как человек стабильно показывает 95 % и выше.

Это показало ограниченность предобучения: LLM знают много, но не умеют адаптироваться к новому.

Решение — Test-Time Adaptation (TTA), где модель во время выполнения задачи: