Понятие «ИИ-веганство» описывает осознанный отказ от использования технологий искусственного интеллекта. За этим решением стоит не только привычный страх перед новыми технологическими изменениями, но и беспокойство по поводу этических вопросов, а также стремление сохранить подлинность человеческого труда. Издание Forbes Life исследовало, почему ИИ-веганство набирает популярность в современной культуре и как общество адаптируется к стремительно развивающимся технологиям, еще недавно казавшимся фантастикой.
ИИ уже не просто эксперимент: он пишет тексты, создает изображения, помогает решать сложные задачи. Тем не менее, растет число людей, сознательно отказывающихся от его применения. Эти люди называют себя «ИИ-веганами» — они воспринимают нейросети не как помощников, а как потенциальную угрозу — для этики, творчества и даже способности концентрироваться. Почему этот тренд становится все более заметным?
В июле 2024 года Илон Маск представил Grok 4 — ИИ-чат-бот, которого он охарактеризовал как «самый продвинутый в мире», способный даже «перевернуть основы физики». А в августе 2025 года компания OpenAI выпустила обновленную версию своего продукта — ChatGPT-5, теперь умеющего сам определять, нужно ли пользователю краткое пояснение или обстоятельный разбор запроса.
С расширением функциональности ИИ растет и его аудитория: с 110 миллионов пользователей в 2020 году до 314 миллионов в 2025. Искусственный интеллект все чаще используется в учебе, креативных индустриях, медицине и даже психотерапии. Однако не все готовы поддержать технологический прогресс: в медиапространстве набирает обороты явление, получившее название «ИИ-веганство» или «технологическая осторожность» — новая культурная реакция на стремительное внедрение нейросетей в повседневность.
Почему некоторые отказываются от ИИ
Если кратко, ИИ-веганство — это сознательное решение не пользоваться ИИ в работе, учебе и быту. Такой подход может быть связан с так называемым неолуддизмом — современным вариантом исторического луддизма, выражающим страх перед технологическим развитием. Однако не только страх лежит в основе отказа.
По мнению Кирилла Пшинника, сооснователя образовательной платформы «Зерокодер», у сторонников ИИ-веганства есть целый ряд обоснованных опасений. Их возмущает, что ИИ-модели обучаются на чужих данных без разрешения или оплаты, что делает саму технологию в их глазах несправедливой и эксплуататорской.
«Недоверие усиливает алгоритмическая аверсия: даже доказанная точность рекомендаций не перекрывает инстинктивную веру в экспертность человека, — раскрывает свою точку зрения об ИИ-веганстве Пшинник. — Дополняют картину экологические опасения: расчеты показывают, что дата-центры потребляют все больше электроэнергии и воды, а значит, вносят вклад в выбросы и дефицит ресурсов. К этому добавляется страх потерять критическое мышление и зависнуть в подсказках алгоритма, а также недоверие к концентрации власти в руках нескольких IT-корпораций».
Есть и культурные причины для отказа от ИИ. Андрей Полубаров, научный сотрудник института AIRI, указывает, что ИИ-веганство отражает более глубокие процессы — от попытки сохранить человеческую самобытность до стремления избежать размывания культурной идентичности.
Некоторые ИИ-веганы считают неэтичным использование нейросетей для создания изображений и текстов, поскольку оно может нарушать авторские права и по сути использовать чужие работы. Скептики на Reddit, например, говорят о том, что ИИ, будучи дешевле и быстрее, подрывает журналистику: он вытесняет автора-человека, снижает уникальность контента и ставит под сомнение достоверность информации. При этом даже сами журналисты признают: с одной стороны, они боятся потерять работу, а с другой — уже активно пользуются ИИ для расшифровки интервью и рутинных задач.
ИИ и мозг: как технологии влияют на мышление и внимание
Искусственный интеллект меняет не только нашу повседневность, но и то, как работает наш мозг. Психолог Галина Шикина, член научной комиссии EARTH, сравнивает работу нейросетей с маркетингом: и те, и другие борются за внимание человека, только разными способами.
«Сегодня любая LLM-модель, будь то ChatGPT, Claude, Deep Seek или Perplexity, построена так, чтобы удерживать нас как можно дольше в контакте. Но дело не только в технологиях — в ее коде есть психология, — объясняет Шикина. — По сути мы говорим с системой, в которой зашиты приемы из психотерапии, нейромаркетинга, поведенческого дизайна. Мы — не пользователи, а участники тонкой игры за собственный фокус».
Когда мы общаемся с ИИ, система анализирует не только запрос, но и стиль мышления, подбирая «триггеры», чтобы мы продолжали диалог. Это похоже на поведение опытного продавца: цель — не продать напрямую, а создать комфорт, в котором мы сами захотим остаться. Каждое такое взаимодействие, по словам Шикиной, оставляет след в мозге.
Два эффекта ИИ: помощь и привыкание
Исследования Microsoft Research (2024–2025 гг.) показали: использование ИИ вызывает в мозге конкуренцию между критическим мышлением и доверием к алгоритмам. Как человек воспринимает ИИ — как источник помощи или как замену себе — зависит от уровня самодоверия и усилий, которые он готов вложить.
Дополнительные данные от MIT Media Lab подтверждают: ИИ может краткосрочно снижать тревожность и чувство одиночества, но при частом обращении к нему вместо живого общения у мозга формируется так называемый «эффект стеклянной стены». Человек ощущает связь, но теряет навыки эмпатии и сложных социальных взаимодействий.
Не враг и не спаситель: ИИ как партнер
Шикина уверена, что оптимальная стратегия — не отказ от технологий и не их полная интеграция, а разумное сосуществование. ИИ стоит рассматривать как партнера, а не как замену.
С этим согласен и исследователь Андрей Полубаров. Он подчеркивает: нейросети — это просто инструмент, и их польза зависит от того, как именно их применять. Один пользователь может просто копировать готовые тексты и терять навык анализа, а другой — использовать ИИ как помощника в прояснении сложных тем или преодолении творческого ступора. Ситуация та же, что и с интернетом: для кого-то это инструмент прокрастинации, для кого-то — образовательная среда.
Ключевой навык, по его мнению, — умение правильно формулировать запросы и критически оценивать полученные ответы. ИИ не заменит того, кто умеет думать, но вполне может заменить того, кто не хочет этого делать.
ИИ — не всезнайка: как правильно с ним работать
Иван Копылов, ведущий разработчик в MWS AI (Центр ИИ МТС), напоминает: нейросети не «знают» истину, они лишь прогнозируют наиболее вероятный ответ. Поэтому важно уметь перепроверять результат и понимать, как обращаться с возможными ошибками.
Он предлагает относиться к ИИ как к помощнику — например, как к дополнительному мнению для врача. Такой подход близок к идее «аскетичного использования ИИ»: технология применяется только там, где человек может контролировать процесс, вмешаться при необходимости и разобраться в механике принятия решений.
Копылов подчеркивает: этическая граница проходит не между сторонниками и противниками ИИ, а между управляемыми и неуправляемыми системами. Там, где человек сохраняет контроль, прозрачность и возможность сказать последнее слово — там и лежит основа ответственного взаимодействия с ИИ.
ИИ уже не просто эксперимент: он пишет тексты, создает изображения, помогает решать сложные задачи. Тем не менее, растет число людей, сознательно отказывающихся от его применения. Эти люди называют себя «ИИ-веганами» — они воспринимают нейросети не как помощников, а как потенциальную угрозу — для этики, творчества и даже способности концентрироваться. Почему этот тренд становится все более заметным?
В июле 2024 года Илон Маск представил Grok 4 — ИИ-чат-бот, которого он охарактеризовал как «самый продвинутый в мире», способный даже «перевернуть основы физики». А в августе 2025 года компания OpenAI выпустила обновленную версию своего продукта — ChatGPT-5, теперь умеющего сам определять, нужно ли пользователю краткое пояснение или обстоятельный разбор запроса.
С расширением функциональности ИИ растет и его аудитория: с 110 миллионов пользователей в 2020 году до 314 миллионов в 2025. Искусственный интеллект все чаще используется в учебе, креативных индустриях, медицине и даже психотерапии. Однако не все готовы поддержать технологический прогресс: в медиапространстве набирает обороты явление, получившее название «ИИ-веганство» или «технологическая осторожность» — новая культурная реакция на стремительное внедрение нейросетей в повседневность.
Почему некоторые отказываются от ИИ
Если кратко, ИИ-веганство — это сознательное решение не пользоваться ИИ в работе, учебе и быту. Такой подход может быть связан с так называемым неолуддизмом — современным вариантом исторического луддизма, выражающим страх перед технологическим развитием. Однако не только страх лежит в основе отказа.
По мнению Кирилла Пшинника, сооснователя образовательной платформы «Зерокодер», у сторонников ИИ-веганства есть целый ряд обоснованных опасений. Их возмущает, что ИИ-модели обучаются на чужих данных без разрешения или оплаты, что делает саму технологию в их глазах несправедливой и эксплуататорской.
«Недоверие усиливает алгоритмическая аверсия: даже доказанная точность рекомендаций не перекрывает инстинктивную веру в экспертность человека, — раскрывает свою точку зрения об ИИ-веганстве Пшинник. — Дополняют картину экологические опасения: расчеты показывают, что дата-центры потребляют все больше электроэнергии и воды, а значит, вносят вклад в выбросы и дефицит ресурсов. К этому добавляется страх потерять критическое мышление и зависнуть в подсказках алгоритма, а также недоверие к концентрации власти в руках нескольких IT-корпораций».
Есть и культурные причины для отказа от ИИ. Андрей Полубаров, научный сотрудник института AIRI, указывает, что ИИ-веганство отражает более глубокие процессы — от попытки сохранить человеческую самобытность до стремления избежать размывания культурной идентичности.
Некоторые ИИ-веганы считают неэтичным использование нейросетей для создания изображений и текстов, поскольку оно может нарушать авторские права и по сути использовать чужие работы. Скептики на Reddit, например, говорят о том, что ИИ, будучи дешевле и быстрее, подрывает журналистику: он вытесняет автора-человека, снижает уникальность контента и ставит под сомнение достоверность информации. При этом даже сами журналисты признают: с одной стороны, они боятся потерять работу, а с другой — уже активно пользуются ИИ для расшифровки интервью и рутинных задач.
ИИ и мозг: как технологии влияют на мышление и внимание
Искусственный интеллект меняет не только нашу повседневность, но и то, как работает наш мозг. Психолог Галина Шикина, член научной комиссии EARTH, сравнивает работу нейросетей с маркетингом: и те, и другие борются за внимание человека, только разными способами.
«Сегодня любая LLM-модель, будь то ChatGPT, Claude, Deep Seek или Perplexity, построена так, чтобы удерживать нас как можно дольше в контакте. Но дело не только в технологиях — в ее коде есть психология, — объясняет Шикина. — По сути мы говорим с системой, в которой зашиты приемы из психотерапии, нейромаркетинга, поведенческого дизайна. Мы — не пользователи, а участники тонкой игры за собственный фокус».
Когда мы общаемся с ИИ, система анализирует не только запрос, но и стиль мышления, подбирая «триггеры», чтобы мы продолжали диалог. Это похоже на поведение опытного продавца: цель — не продать напрямую, а создать комфорт, в котором мы сами захотим остаться. Каждое такое взаимодействие, по словам Шикиной, оставляет след в мозге.
Два эффекта ИИ: помощь и привыкание
Исследования Microsoft Research (2024–2025 гг.) показали: использование ИИ вызывает в мозге конкуренцию между критическим мышлением и доверием к алгоритмам. Как человек воспринимает ИИ — как источник помощи или как замену себе — зависит от уровня самодоверия и усилий, которые он готов вложить.
Дополнительные данные от MIT Media Lab подтверждают: ИИ может краткосрочно снижать тревожность и чувство одиночества, но при частом обращении к нему вместо живого общения у мозга формируется так называемый «эффект стеклянной стены». Человек ощущает связь, но теряет навыки эмпатии и сложных социальных взаимодействий.
Не враг и не спаситель: ИИ как партнер
Шикина уверена, что оптимальная стратегия — не отказ от технологий и не их полная интеграция, а разумное сосуществование. ИИ стоит рассматривать как партнера, а не как замену.
С этим согласен и исследователь Андрей Полубаров. Он подчеркивает: нейросети — это просто инструмент, и их польза зависит от того, как именно их применять. Один пользователь может просто копировать готовые тексты и терять навык анализа, а другой — использовать ИИ как помощника в прояснении сложных тем или преодолении творческого ступора. Ситуация та же, что и с интернетом: для кого-то это инструмент прокрастинации, для кого-то — образовательная среда.
Ключевой навык, по его мнению, — умение правильно формулировать запросы и критически оценивать полученные ответы. ИИ не заменит того, кто умеет думать, но вполне может заменить того, кто не хочет этого делать.
ИИ — не всезнайка: как правильно с ним работать
Иван Копылов, ведущий разработчик в MWS AI (Центр ИИ МТС), напоминает: нейросети не «знают» истину, они лишь прогнозируют наиболее вероятный ответ. Поэтому важно уметь перепроверять результат и понимать, как обращаться с возможными ошибками.
Он предлагает относиться к ИИ как к помощнику — например, как к дополнительному мнению для врача. Такой подход близок к идее «аскетичного использования ИИ»: технология применяется только там, где человек может контролировать процесс, вмешаться при необходимости и разобраться в механике принятия решений.
Копылов подчеркивает: этическая граница проходит не между сторонниками и противниками ИИ, а между управляемыми и неуправляемыми системами. Там, где человек сохраняет контроль, прозрачность и возможность сказать последнее слово — там и лежит основа ответственного взаимодействия с ИИ.