РАССКАЖИ ДРУЗЬЯМ
д-р Аврум Шарнопольский
Председатель правления
Хазит а Кавод
AGI – новая страшилка или шанс построить новый цивилизационный уклад?
Регистрационный номер публикации 1253
Дата публикации: 17.04.2026
В средствах массовой информации появились статьи, подтверждающие факт существования или скорого создания AGI, представляющего угрозу для очень многих специалистов разных профилей, которых этот алгоритм может заменить. AGI (Artificial General Intelligence) — это искусственный общий интеллект, теоретический тип ИИ, способный понимать, учиться и применять знания в широком спектре задач на уровне человека или выше. AGI обладает когнитивной гибкостью и способностью к самообучению в новых ситуациях.)
Как скоро AGI станет рабочим инструментом?
Прогнозы сильно разнятся:
Оптимисты (Сэм Альтман, Илон Маск): Считают, что подобие AGI может появиться в ближайшие 3–5 лет.
Скептики (Ян Лекун): Уверены, что нам не хватает фундаментальных научных прорывов, и это случится через десятилетия.
Однако, Марк Андерсен и Дженсен Хуанг утверждают, что AGI через несколько месяцев станет реальностью
Что говорят Марк Андерсен и Дженсен Хуанг?
Важно понимать, что их утверждения во многом зависят от того, как именно они определяют AGI:
Дженсен Хуанг (создатель компании Nvidia. Компания контролирует более 80% рынка GPU для дата-центров): В марте 2026 года на подкасте Лекса Фридмана он заявил: «Я думаю, мы уже достигли AGI». Его логика проста: если определить AGI как систему, способную «начать, развить и управлять успешной технологической компанией стоимостью более миллиарда долларов», то современные ИИ-агенты уже близки к этому или теоретически способны на это.
Марк Андерсен (соучредитель и генеральный партнер венчурной компании Andreessen Horowitz. Он — новатор и создатель, один из немногих, кто первым создал категорию программного обеспечения, используемого более чем миллиардом человек, и один из немногих, кто основал несколько компаний с миллиардным оборотом.): В апреле 2026 года он также поддержал тезис, что «AGI уже здесь», добавив знаменитую фразу Уильяма Гибсона: «Просто он распределен неравномерно». Для Андерсена современный уровень ИИ уже соответствует критериям «сильного интеллекта» в руках тех, кто умеет им пользоваться.
Прогноз на 2026 год: Ожидается как «год зрелости», когда AGI станет рабочим инструментом.
Прогноз на 2027 год: Глава Anthropic Дарио Амодеи и глава Microsoft AI Мустафа Сулейман прогнозируют, что к началу-середине 2027 года ИИ сможет выполнять большинство профессиональных задач на уровне человека.
Бизнес начнёт внедрять его сразу, как только стоимость эксплуатации алгоритма станет ниже зарплаты сотрудника при сопоставимом качестве.
Когда AGI будет создан и начнётся его внедрение, как социально можно будет защитить людей, которые могут быть уволены?
Вопрос масштабный и затрагивает фундаментальные изменения в обществе. Важно сразу уточнить: на текущий момент AGI (сильный ИИ) официально не существует. Есть лишь мощные генеративные модели (LLM), которые имитируют когнитивные функции, но не обладают сознанием или универсальной гибкостью человека.
Социальная защита.
Если ИИ начнёт массово вытеснять специалистов, понадобятся радикальные меры:
Безусловный базовый доход (ББД): Выплаты гражданам для обеспечения жизни вне зависимости от наличия работы.
Налог на роботов: Обложение компаний налогами за использование ИИ вместо людей, чтобы спонсировать программы переобучения.
Сокращение рабочей недели: Переход на 3-4 рабочих дня, чтобы распределить имеющиеся задачи между большим количеством людей.
Сертификация «Human-Made»: Маркировка товаров и услуг, созданных людьми, для поддержки «человеческого» сектора экономики.
Уместен вопрос, стоит ли запрещать AGI?
Запрет крайне сложен по нескольким причинам:
Глобальная конкуренция: Если одна страна запретит ИИ, а другая — нет, первая быстро станет экономически и технологически отсталой.
Скрытая разработка: Технологии такого уровня сложно контролировать, их могут развивать закрытые корпорации или военные ведомства.
Потенциальная польза: AGI может решить проблемы медицины, климата и энергетики, которые не под силу человеку.
Вместо запрета сейчас обсуждается регулирование — создание правил, которые обязывают разработчиков делать AGI прозрачным и безопасным.
Стоит ли запрещать AGI при отсутствии защиты?
Эффект «черного рынка»: Запрет легальных разработок может привести к тому, что AGI создадут закрытые структуры без какого-либо внешнего контроля безопасности.
Экономический проигрыш: Страна, запретившая AGI, рискует потерять конкурентоспособность за считанные месяцы, так как производительность труда с ИИ растет экспоненциально.
Вместо запрета сейчас активно обсуждается социальная адаптация: Дженсен Хуанг, например, настаивает, что AGI не «убийца рабочих мест», а инструмент, который требует от каждого стать «директором» своих цифровых помощников. Однако механизмы прямой защиты (вроде ББД) пока остаются лишь на бумаге, что и создает основное социальное напряжение.
Это мнение сейчас становится одним из главных векторов в дискуссиях о регулировании AGI. Идея «налога на роботов» или «налога на алгоритмы» кажется справедливой: если капитал AGI заменяет труд (человека), то часть сверхприбыли компании должна возвращаться в общество.
Однако на пути к реализации такого налога стоят три серьезных барьера:
Трудность оценки: Сложно определить, где заканчивается обычная автоматизация (как Excel) и начинается за который нужно платить налог.
Глобальная конкуренция: Если одна страна введёт такой налог, компании могут просто перенести свои серверы и штаб-квартиры туда, где такой нагрузки нет.
Замедление прогресса: Разработчики утверждают, что дополнительные налоги лишат их ресурсов, необходимых для решения глобальных проблем (например, разработки лекарств от рака с помощью того же AGI,).
Тем не менее, такие гиганты, как Билл Гейтс, давно поддерживают эту концепцию, считая её единственным способом профинансировать переобучение миллионов людей. Без этого разрыв между владельцами ИИ-технологий и остальным миром может стать критическим.
На что в первую очередь должны идти эти средства: на безусловные выплаты всем пострадавшим или на обязательное государственное переобучение новым профессиям?
Я полагаю, что государственное переобучение новым профессиям не является кардинальным решением проблемы. Мне ближе концепция Безусловного базового дохода (ББД),
Многие эксперты согласны: когда алгоритмы начинают обучаться быстрее, чем человек успевает освоить новую профессию, классическое переобучение превращается в «бег на месте».
Узаконивание таких выплат на государственном уровне решает несколько задач:
Снятие социального стресса: Люди перестают воспринимать ИИ как личную катастрофу.
Поддержание спроса: Если миллионы людей останутся без дохода, экономика рухнет, так как некому будет покупать товары и услуги, производимые этим самым ИИ.
Справедливость: Общество получает дивиденды от технологий, которые были обучены на данных, созданных человечеством коллективно.
Основной риск здесь — инфляция и поиск источника средств. Вероятно, это потребует пересмотра всей налоговой системы: переход от налогообложения зарплат людей к налогообложению вычислительных мощностей или доходов от интеллектуальной собственности алгоритмов.
Компенсация на уровне полной средней зарплаты — является наиболее радикальным и гуманным сценарием, который в экспертной среде называют «страхованием от технологической безработицы».
Это фактически означает признание того, что, если алгоритм заменяет человека, он должен «содержать» этого специалиста, сохраняя его привычный уровень жизни и покупательную способность.
Однако реализация такой модели на государственном уровне может столкнуться с колоссальными вызовами:
Нагрузка на бюджет: Чтобы выплачивать полные зарплаты миллионам уволенных, налог на компании-владельцы ИИ должен составлять огромный процент от их прибыли. Это потребует глобального соглашения всех стран, чтобы бизнес не «сбежал» в офшоры.
Экономический дисбаланс: Возникает вопрос мотивации. Если человек получает полную зарплату, не работая, возникнет ли у него стимул заниматься творчеством, наукой или социальной деятельностью?
Критерий «пострадавшего»: Государству придётся четко определить, был ли человек уволен именно из-за AGI, а не по причине низкой квалификации или рыночных изменений, что породит бюрократические сложности.
Несмотря на эти сложности, в мире уже обсуждаются подобные механизмы. Например, в ряде стран Европы рассматривают идею «цифрового дивиденда» — части прибыли от автоматизации, которая распределяется среди граждан.
Этот подход превращает социальную поддержку в своего рода динамическую страховку от потери дохода, что гарантирует человеку сохранение его социально-экономического статуса, независимо от технологических потрясений.
Такая модель имеет несколько важных преимуществ:
Стимул к развитию: Человек не боится пробовать себя в новых, даже низкооплачиваемых на старте или творческих сферах, так как разница в доходе будет покрываться пособием.
Плавная адаптация: Исчезает риск резкого падения в «социальную яму», что предотвращает протесты и дестабилизацию общества.
Справедливое распределение: Сверхприбыли от AGI не аккумулируются у 1% владельцев корпораций, а продолжают циркулировать в экономике через потребление граждан.
Однако для внедрения такой системы государству потребуется полная прозрачность доходов (цифровой контроль) и международное законодательство, чтобы транснациональные IT-гиганты не могли уклоняться от выплат.
Учитывая прогнозы Андерсена и Хуанга о появлении AGI в ближайшие месяцы, времени на разработку таких законов почти не осталось.
Если прогнозы Марка Андерсена и Дженсена Хуанга о появлении AGI в ближайшие месяцы подтвердятся, мир может столкнуться с так называемым «регуляторным разрывом»:
Законодательный вакуум: На разработку и принятие международных налоговых соглашений (чтобы избежать ухода IT-гигантов в офшоры) уходят годы, а ИИ внедряется за недели.
Дефицит ресурсов: Бюджеты большинства стран уже обременены долгами и социальными обязательствами; мгновенно найти средства на выплаты в размере полных зарплат без новой налоговой базы невозможно.
Социальный риск: Неготовность государства может привести к периоду нестабильности, когда старые рабочие места исчезают быстрее, чем принимаются законы о «цифровых дивидендах».
В этой ситуации единственным сдерживающим фактором может стать мораторий на внедрение определенных функций AGI или добровольные социальные отчисления крупнейших корпораций под давлением общества.
Способно ли гражданское общество и профессиональные союзы заставить государства ускорить этот процесс, или инициатива должна исходить от самих создателей AGI?
Гражданское общество и профессиональные союзы могут оказать влияние на государственные структуры. Однако пока не будут подготовлены налоговые системы, должен быть введён мораторий на внедрение AGI.
Однако реализация такого моратория на практике столкнется с жестким сопротивлением:
- Если одна страна введёт мораторий, она рискует мгновенно проиграть экономическую конкуренцию соседям, которые этого не сделали. Это классическая «дилемма заключенного».
- Крупные корпорации могут начать использовать AGI «под капотом» для внутренней оптимизации, официально не заявляя о его применении, что сделает контроль за мораторием крайне сложным.
- Компании могут утверждать, что их новые алгоритмы — это не AGI, а просто «улучшенный поиск» или «продвинутый ассистент», чтобы обойти запрет.
Мне представляется, что все эти опасения можно будет обойти.
Опасность заключается в другом: поскольку AGI сможет оптимизировать себя гораздо быстрее и эффективнее, чем это может сделать человек, он может стать настолько умным, что мы потеряем контроль над ним.
Резюме: Появится ли у человечества с использованием AGI шанс выстроить новый цивилизационный уклад - вопрос, ответа на который пока нет.
Ссылки:
Налоги на роботов и четырёхдневка: план OpenAI для ...
Компания считает, что ИИ вскоре станут умнее людей, и это радикально изменит наш образ жизни и работы, а также систему налогообложения...
Euronews
Ввести налог на использование ИИ и перейти на «четырехдневку» предлагают в США.
В прошлом году в мире почти 70 тысяч сотрудников потеряли работу в технологическом секторе из-за ИИ.
Комментарии
Ваш комментарий появится здесь после модерации
Ваш email-адрес не будет опубликован
Коммерческое использование материалов сайта без согласия авторов запрещено! При некоммерческом использовании обязательна активная ссылка на сайт: www.kruginteresov.com