Хинтон предупреждает: суперинтеллект может появиться через несколько лет — предлагает 'материнскую' программу для ИИ
Хинтон пересматривает таймлайн
Геоффри Хинтон, которого часто называют крестным отцом ИИ, удивил сообщество в Лас-Вегасе, сократив свою оценку появления общего искусственного интеллекта. Если раньше он говорил о 30–50 годах, теперь Хинтон предполагает, что AGI может возникнуть в течение 5–20 лет. Такое изменение отражает скорость недавних прорывов и растущую уверенность, что узкие достижения могут объединиться в более общие способности.
Метафора тигренка и материнская привязка
Хинтон использовал яркую метафору: продвинутые ИИ подобны тигренку. Без правильного воспитания они могут быть непредсказуемы и потенциально опасны. Чтобы управлять этим риском, он предлагает программировать в ИИ ‘материнские инстинкты’, чтобы такие системы по умолчанию ставили благополучие людей в центр. Этот подход отличается от идеи контроля сверху вниз и вместо принуждения стремится внедрить защитные и заботливые приоритеты в архитектуры ИИ.
Поддержка со стороны лидеров ИИ
Ведущие исследователи разделяют или выражают сочувствие к идеям Хинтона. Янн ЛеКун из Meta подчеркнул важность эмпатии и покорности как защитных мер, сравнив их с инстинктами у социальных животных. Другие фигуры, такие как Демис Хассабис и Дженсен Хуанг, также указывают на то, что AGI может быть ближе, чем многие думают, что усиливает необходимость ускоренной работы по выравниванию.
Ставки и оценка рисков
Хинтон предупреждает, что времени на подготовку может быть немного. Он оценивает вероятность того, что AGI способен представлять угрозу уровня вымирания, до 20 процентов при отсутствии надёжного выравнивания. Быстрый технологический прогресс в сочетании с неопределёнными методами безопасности создаёт сценарий, в котором у общества остаётся лишь несколько лет на внедрение надёжных защит.
Зачем нужна эмоциональная согласованность
Встраивание эмпатии и мотиваций заботы в ИИ — это не сентиментальность, а практическая стратегия выравнивания. Если мощная система будет воспринимать людей как тех, кого нужно защищать, а не как препятствие, шансы на благоприятное сосуществование возрастут. Такой подход переводит задачу из принуждения в построение отношений доверия.
Последствия для науки и политики
Если AGI действительно может появиться в ближайшие годы, политикам, донорам и исследователям нужно ускорить работу над масштабируемыми примитивами выравнивания. Это включает междисциплинарные исследования, объединяющие техническую безопасность, этику, социальную психологию и управление. Беседа перестаёт быть чисто спекулятивной и становится вопросом немедленной готовности.
Что будет дальше
Ожидайте дискуссий о том, как формализовать ‘материнские’ инстинкты в алгоритмах и можно ли их верифицировать и аудировать. Давление со стороны лидеров отрасли может привести к новым инвестициям, стандартам или совместным мерам безопасности, но именно практические детали определят, станет ли этот подход жизнеспособным путем снижения экзистенциального риска.