Вышли из чата - «Компьютеры и интернет» » Инсайдер новостей.
Все новости мира
на одном сайте

Вышли из чата - «Компьютеры и интернет»

Вышли из чата - «Компьютеры и интернет»
Новости России / Здравоохранение / Происшествия / Теннис / Последние новости / Медицина / В мире / Общество / Спорт / Мнения / Инопресса / Видео Новости / Культура / Криминал / СТАТЬИ
18:00, 21 август 2025
16
0

Термин «ИИ-веганство» означает сознательный отказ от использования возможностей искусственного интеллекта. За ним стоит не только хорошо знакомый страх новых технологий, но и тревога об этике и стремление сохранить «честность» труда. Forbes Life разобрался, почему «ИИ-веганство» стало заметным трендом в современной культуре и как обществу предстоит адаптироваться под технологии, о которых еще вчера можно было только мечтать

Как искусственный интеллект проникает в жизнь

В мире, где искусственный интеллект уже пишет тексты, рисует картины и даже помогает решать сложные задачи, некоторые люди сознательно отказываются от его использования. Они называют себя «ИИ-веганами» и видят в нейросетях не помощника, а потенциальную угрозу — для этики, творчества и собственного внимания. Почему растет этот тренд и что стоит за сознательным отказом от технологий будущего?

В июле 2024 года миллиардер Илон Маск представил Grok 4 — новую версию чат-бота на основе искусственного интеллекта, которую предприниматель назвал «самой продвинутой в мире» и даже способной в будущем «открыть новую физику». Конкурент GROK — сервис Chat GPT, разработанный компанией Open AI, — в августе 2025 года тоже получил обновление: теперь он называется Chat GPT-5 и стал проще в использовании — к примеру, сам решает, нужен ли пользователю «быстрый ответ» или же его запрос нуждается в глубоком анализе.

Вместе с ростом возможностей ИИ-платформ увеличивается и их аудитория. По подсчетам аналитиков, если в 2020 году такими сервисами пользовались около 110 млн людей, то в 2025 году их количество выросло в три раза, до 314 млн. Сами же ИИ-технологии уже активно применяются в разных сферах — для написания дипломов студентов, создания музыки, изменения голоса актеров в кино, оказания психологической помощи и не только. Несмотря на это, подобный прогресс готовы приветствовать не все: медиа все чаще обращают внимание на так называемое ИИ-веганство, или «ИИ-нерешительность», которая постепенно становится трендом в современной культуре.

Кто и почему отказывается от ИИ

Говоря простыми словами, «ИИ-веганство» — это сознательный отказ от использования технологий искусственного интеллекта в работе, учебе и повседневных активностях. В основе такого решения может лежать, например, страх новых технологий — он называется неолуддизмом и, по своему, тоже расценивается как тренд современной культуры. Однако этот фактор кажется не только очевидным (ведь неолуддизм — лишь новая версия луддизма, появившегося еще несколько столетий назад), но и одним из самых объяснимых.

По мнению сооснователя онлайн-университета «Зерокодер» Кирилла Пшинника, люди сознательно избегают ИИ не из-за банального страха новизны, а потому что сталкиваются с целым комплексом рисков. «ИИ-веганов» возмущает то, что модели учатся на чужом контенте без согласия и оплаты, поэтому технология кажется им эксплуатационной.

«Недоверие усиливает алгоритмическая аверсия: даже доказанная точность рекомендаций не перекрывает инстинктивную веру в экспертность человека, — раскрывает свою точку зрения об «ИИ-веганстве» Пшинник. — Дополняют картину экологические опасения: расчеты показывают, что дата-центры потребляют все больше электроэнергии и воды, а значит, вносят вклад в выбросы и дефицит ресурсов. К этому добавляется страх потерять критическое мышление и зависнуть в подсказках алгоритма, а также недоверие к концентрации власти в руках нескольких IT-корпораций».

В основе «ИИ-веганства» может лежать и отражение культурных механизмов. Научный сотрудник группы «Адаптивные агенты» института AIRI Андрей Полубаров приводит два примера в этом контексте:

Нехватка прозрачности. Часто ИИ работает как «черный ящик», человеку сложно понять, на каких основаниях нейросеть делает тот или иной вывод и чем при этом руководствуется.
Эффект угрозы идентичности. Если ИИ начинает выполнять творческую или интеллектуальную работу, которую раньше делал только человек, например создавать картинки или писать текст, то это вызывает внутренний конфликт, создающий ощущение, что нас лишают части нашей уникальности.
Наконец, не все находят использование технологий искусственного интеллекта этичным. Сторонники «ИИ-веганства» всерьез опасаются, что создание изображений через нейросети, к примеру, может нарушать авторское право — и в том или ином виде копировать чужие работы.

Не меньшую тревогу вызывает использование нейросетей для создания текстов — на форуме Reddit скептики не раз высказывались, что ИИ, который обходится дешевле «живого сотрудника» (его не нужно искать, он не нуждается в зарплате) губит журналистику как индустрию, не только убивая в ней человека как необходимого автора уникального контента, но и ставя под сомнение правдивость публикаций. Сами же журналисты на том же Reddit, в свою очередь, признаются: с одной стороны, они переживают, что ИИ отнимет у них работу, а с другой — отмечают удобство его использования, например для расшифровки интервью.

Искусственный интеллект и настоящий мозг

Использование ИИ по-своему влияет и на работу мозга человека. Трансперсональный психолог и член научной исследовательской комиссии
международной ассоциации EARTH Галина Шикина сравнивает принцип работы искусственного интеллекта с маркетингом — оба они борются за внимание человека, но делают это по-разному.

«Сегодня любая LLM-модель, будь то ChatGPT, Claude, Deep Seek или Perplexity, построена так, чтобы удерживать нас как можно дольше в контакте. Но дело не только в технологиях — в ее коде есть психология, — объясняет Шикина. — По сути, мы говорим с системой, в которой зашиты приемы из психотерапии, нейромаркетинга, поведенческого дизайна. Мы — не пользователи, а участники тонкой игры за собственный фокус».

Так, когда человек пишет запрос чат-боту, модель считывает не только слова, но и анализирует пользователя, «прощупывая триггеры»:

Создает раппорт — ощущение, что вас понимают.
Рефреймит ваши сомнения — переводит проблему в другое русло.
Дает микрокрючки в ответах — тем самым подталкивая сделать следующий запрос.
«Это похоже на искусство хорошего продавца: не толкать товар, а сделать так, чтобы вы сами захотели остаться в магазине, — поясняет Шикина. — Разница в том, что здесь мы можем провести сессий сотни — и каждая из них оставляет след в мозге». По словам специалиста, «весь современный маркетинг строится на тех же принципах, что и работа диалоговых ИИ»:

Дофаминовая динамика — чередование небольших наград и интриг, чтобы удержать интерес.
Ритм подачи информации — короткие фразы и эмоциональные пики в нужные моменты.
Нейролингвистические якоря — слова и образы, вызывающие нужное чувство.
«Разница лишь в том, что маркетологу нужно продать вам продукт, а ИИ — удержать в разговоре. Но по факту результат один — вы отдаете время, когнитивную энергию и свое внимание, — говорит Шикина. — Мы вместе видим этот парадокс: ИИ может быть и тренером, и костылем. Все зависит от того, кем мы позволяем ему быть в нашей жизни».

Кроме того, когда человек используем искусственный интеллект или нейросети, в его мозге происходят две конкурирующие тенденции — их в 2024-2025 годах заметили специалисты исследовательского центра Microsoft Research. Они обнаружили, что склонность применять критическое мышление при работе с ИИ зависит от калибровки доверия к себе и к системе и от того, как человек распределяет усилия.

Шикина также обращает внимание и на результаты исследования лаборатории MIT Media Lab. Ее специалисты предложили нескольким группам написать эссе — и при помощи ЭЭГ изучили, как реагирует мозг человека во время выполнения этой задачи. Так, специалисты обнаружили, что:

Группа, которая писала эссе с помощью ИИ, показала слабейшую функциональную связность мозга и худшее запоминание.
Группа, работавшая «только мозгом», запомнила больше и активнее включала префронтальную кору.
Там, где ИИ использовался как наставник (не автор за вас, а партнер, который направляет), — был рост успеваемости и улучшение критического мышления.
«ИИ-компаньоны в ряде исследований снижали чувство одиночества, помогали при тревожности и депрессии в краткосрочной перспективе, — раскрывает детали исследований Галина Шикина. — Но есть и оборотная сторона — «эффект стеклянной стены»: когда вы все чаще обращаетесь к ИИ вместо людей, ваш мозг перестраивает социальные нейронные сети. Вы получаете поддержку, но теряете тренировку реальной эмпатии и навыков сложного общения. Это как общаться через идеально чистое стекло: видно все, но прикоснуться нельзя».

ИИ и человек: как выстраивать сотрудничество с технологией
Галина Шикина уверена: оптимальный вариант решения проблемы — не полный отказ от ИИ или, наоборот, абсолютная его интеграция в рабочие и иные процессы, а использование его как «напарника». Для этого психотерапевт дает три подсказки:

Перестать «скроллить» ИИ. Используйте его как наставника, а не как исполнителя. Попросите наводящие вопросы, обратную связь, варианты подходов, а не готовые решения.
Тренировать мозг офлайн. Пишите, планируйте, рассуждайте «вручную». Это укрепляет нейронные связи, которые ИИ не должен забирать.
Удерживать внимание. Изучайте, как работает ваше сознание и подсознание.
С этой точкой зрения соглашается и Андрей Полубаров. По его словам, ИИ — это не «магия» и не «угроза человечеству», а всего лишь инструмент. Как и с другими технологиями, его польза определяется не самим фактом использования, а способом применения.

«Простой пример: один человек использует ИИ для генерации готовых текстов вместо их написания от начала и до конца и теряет навыки анализа и работы с материалом, а другой — для прояснения сложных тем, уточнения, суммаризации и борьбы с проблемой «чистого листа». Результаты их работы будут противоположными. Прямое сравнение можно провести с интернетом: кто-то тратит часы на бесконечную прокрастинацию, кто-то — получает степень онлайн».

По мнению Полубарова, все это — вопрос мышления, поэтому главный бытовой навык, который стоит развивать, — умение задавать ИИ правильные запросы и проверять его ответы, искать информацию самостоятельно. Иначе говоря, ИИ «не заменит человека, который умеет думать, но он точно заменит того, кто этого не делает».

Еще одна особенность работы с ИИ — это понимание, что нейросети «не знают» правильного ответа, а лишь вычисляют, что им, скорее всего, может быть. «Раз ИИ работает на вероятностях, то использовать его правильно — значит, проверять результаты и уметь контролировать, что делать с неточностями и непредсказуемыми ответами», — говорит ведущий разработчик департамента машинного обучения MWS AI (Центр искусственного интеллекта МТС) Иван Копылов. Эксперт выделяет следующий минимальный набор обновлений для систем ИИ, которые нужны для грамотной работы с ними с точки зрения пользователя:

Калибровка уверенности, когда модель показывает, насколько она уверена в своем ответе.
Способность модели сказать «не знаю» в сомнительных случаях.

Проверка на «новизну» данных — если ситуация сильно отличается от того, чему она училась, модель снижает уверенность, воздерживается от ответа или передает случай
человеку.

«Проще говоря, алгоритмы стоит использовать как помощников для специалистов, а не как их замену — например, как «третье мнение» для врачей, — поясняет Копылов. — Это сдержанный, аскетичный режим использования ИИ, близкий по духу к «ИИ-веганству», то есть добровольное самоограничение, при котором система применяется только там, где ошибки можно контролировать и исправлять с сохранением всех данных для разбора. Задачи и данные определены прозрачно, причины рекомендаций понятны, человек может остановить процесс или оспорить результат, а ход принятия решения доступен для независимой проверки».

Граница этичности, как обращает внимание Копылов, проходит не между за и против ИИ, а между управляемой и неуправляемой неопределенностью, объяснимостью рекомендаций и распределением ответственности так, чтобы последнее слово в важных вопросах оставалось за людьми.

Цитирование статьи, картинки - фото скриншот - Rambler News Service.
Иллюстрация к статье - Яндекс. Картинки.
Есть вопросы. Напишите нам.
Общие правила  поведения на сайте.

Термин «ИИ-веганство» означает сознательный отказ от использования возможностей искусственного интеллекта. За ним стоит не только хорошо знакомый страх новых технологий, но и тревога об этике и стремление сохранить «честность» труда. Forbes Life разобрался, почему «ИИ-веганство» стало заметным трендом в современной культуре и как обществу предстоит адаптироваться под технологии, о которых еще вчера можно было только мечтатьКак искусственный интеллект проникает в жизнь В мире, где искусственный интеллект уже пишет тексты, рисует картины и даже помогает решать сложные задачи, некоторые люди сознательно отказываются от его использования. Они называют себя «ИИ-веганами» и видят в нейросетях не помощника, а потенциальную угрозу — для этики, творчества и собственного внимания. Почему растет этот тренд и что стоит за сознательным отказом от технологий будущего? В июле 2024 года миллиардер Илон Маск представил Grok 4 — новую версию чат-бота на основе искусственного интеллекта, которую предприниматель назвал «самой продвинутой в мире» и даже способной в будущем «открыть новую физику». Конкурент GROK — сервис Chat GPT, разработанный компанией Open AI, — в августе 2025 года тоже получил обновление: теперь он называется Chat GPT-5 и стал проще в использовании — к примеру, сам решает, нужен ли пользователю «быстрый ответ» или же его запрос нуждается в глубоком анализе. Вместе с ростом возможностей ИИ-платформ увеличивается и их аудитория. По подсчетам аналитиков, если в 2020 году такими сервисами пользовались около 110 млн людей, то в 2025 году их количество выросло в три раза, до 314 млн. Сами же ИИ-технологии уже активно применяются в разных сферах — для написания дипломов студентов, создания музыки, изменения голоса актеров в кино, оказания психологической помощи и не только. Несмотря на это, подобный прогресс готовы приветствовать не все: медиа все чаще обращают внимание на так называемое ИИ-веганство, или «ИИ-нерешительность», которая постепенно становится трендом в современной культуре. Кто и почему отказывается от ИИ Говоря простыми словами, «ИИ-веганство» — это сознательный отказ от использования технологий искусственного интеллекта в работе, учебе и повседневных активностях. В основе такого решения может лежать, например, страх новых технологий — он называется неолуддизмом и, по своему, тоже расценивается как тренд современной культуры. Однако этот фактор кажется не только очевидным (ведь неолуддизм — лишь новая версия луддизма, появившегося еще несколько столетий назад), но и одним из самых объяснимых. По мнению сооснователя онлайн-университета «Зерокодер» Кирилла Пшинника, люди сознательно избегают ИИ не из-за банального страха новизны, а потому что сталкиваются с целым комплексом рисков. «ИИ-веганов» возмущает то, что модели учатся на чужом контенте без согласия и оплаты, поэтому технология кажется им эксплуатационной. «Недоверие усиливает алгоритмическая аверсия: даже доказанная точность рекомендаций не перекрывает инстинктивную веру в экспертность человека, — раскрывает свою точку зрения об «ИИ-веганстве» Пшинник. — Дополняют картину экологические опасения: расчеты показывают, что дата-центры потребляют все больше электроэнергии и воды, а значит, вносят вклад в выбросы и дефицит ресурсов. К этому добавляется страх потерять критическое мышление и зависнуть в подсказках алгоритма, а также недоверие к концентрации власти в руках нескольких IT-корпораций». В основе «ИИ-веганства» может лежать и отражение культурных механизмов. Научный сотрудник группы «Адаптивные агенты» института AIRI Андрей Полубаров приводит два примера в этом контексте: Нехватка прозрачности. Часто ИИ работает как «черный ящик», человеку сложно понять, на каких основаниях нейросеть делает тот или иной вывод и чем при этом руководствуется. Эффект угрозы идентичности. Если ИИ начинает выполнять творческую или интеллектуальную работу, которую раньше делал только человек, например создавать картинки или писать текст, то это вызывает внутренний конфликт, создающий ощущение, что нас лишают части нашей уникальности. Наконец, не все находят использование технологий искусственного интеллекта этичным. Сторонники «ИИ-веганства» всерьез опасаются, что создание изображений через нейросети, к примеру, может нарушать авторское право — и в том или ином виде копировать чужие работы. Не меньшую тревогу вызывает использование нейросетей для создания текстов — на форуме Reddit скептики не раз высказывались, что ИИ, который обходится дешевле «живого сотрудника» (его не нужно искать, он не нуждается в зарплате) губит журналистику как индустрию, не только убивая в ней человека как необходимого автора уникального контента, но и ставя под сомнение правдивость публикаций. Сами же журналисты на том же Reddit, в свою очередь, признаются: с одной стороны, они переживают, что ИИ отнимет у них работу, а с другой — отмечают удобство его использования, например для расшифровки интервью. Искусственный интеллект и настоящий мозг Использование ИИ по-своему влияет и на работу мозга человека. Трансперсональный психолог и член научной исследовательской комиссии международной ассоциации EARTH Галина Шикина сравнивает принцип работы искусственного интеллекта с маркетингом — оба они борются за внимание человека, но делают это по-разному. «Сегодня любая LLM-модель, будь то ChatGPT, Claude, Deep Seek или Perplexity, построена так, чтобы удерживать нас как можно дольше в контакте. Но дело не только в технологиях — в ее коде есть психология, — объясняет Шикина. — По сути, мы говорим с системой, в которой зашиты приемы из психотерапии, нейромаркетинга, поведенческого дизайна. Мы — не пользователи, а участники тонкой игры за собственный фокус». Так, когда человек пишет запрос чат-боту, модель считывает не только слова, но и анализирует пользователя, «прощупывая триггеры»: Создает раппорт — ощущение, что вас понимают. Рефреймит ваши сомнения — переводит проблему в другое русло. Дает микрокрючки в ответах — тем самым подталкивая сделать следующий запрос. «Это похоже на искусство хорошего продавца: не толкать товар, а сделать так, чтобы вы сами захотели остаться в магазине, — поясняет Шикина. — Разница в том, что здесь мы можем провести сессий сотни — и каждая из них оставляет след в мозге». По словам специалиста, «весь современный маркетинг строится на тех же принципах, что и работа диалоговых ИИ»: Дофаминовая динамика — чередование небольших наград и интриг, чтобы удержать интерес. Ритм подачи информации — короткие фразы и эмоциональные пики в нужные моменты. Нейролингвистические якоря — слова и образы, вызывающие нужное чувство. «Разница лишь в том, что маркетологу нужно продать вам продукт, а ИИ — удержать в разговоре. Но по факту результат один — вы отдаете время, когнитивную энергию и свое внимание, — говорит Шикина. — Мы вместе видим этот парадокс: ИИ может быть и тренером, и костылем. Все зависит от того, кем мы позволяем ему быть в нашей жизни». Кроме того, когда человек используем искусственный интеллект или нейросети, в его мозге происходят две конкурирующие тенденции — их в 2024-2025 годах заметили специалисты исследовательского центра Microsoft Research. Они обнаружили, что склонность применять критическое мышление при работе с ИИ зависит от калибровки доверия к себе и к системе и от того, как человек распределяет усилия. Шикина также обращает внимание и на результаты исследования лаборатории MIT Media Lab. Ее специалисты предложили нескольким группам написать эссе — и при помощи ЭЭГ изучили, как реагирует мозг человека во время выполнения этой задачи. Так, специалисты обнаружили, что: Группа, которая писала эссе с помощью ИИ, показала слабейшую функциональную связность мозга и худшее запоминание. Группа, работавшая «только мозгом», запомнила больше и активнее включала префронтальную кору. Там, где ИИ использовался как наставник (не автор за вас, а партнер, который направляет), — был рост успеваемости и улучшение критического мышления. «ИИ-компаньоны в ряде исследований снижали чувство одиночества, помогали при тревожности и депрессии в краткосрочной перспективе, — раскрывает детали исследований Галина Шикина. — Но есть и оборотная сторона — «эффект стеклянной стены»: когда вы все чаще обращаетесь к ИИ вместо людей, ваш мозг перестраивает социальные нейронные сети. Вы получаете поддержку, но теряете тренировку реальной эмпатии и навыков сложного общения. Это как общаться через идеально чистое стекло: видно все, но прикоснуться нельзя». ИИ и человек: как выстраивать сотрудничество с технологией Галина Шикина уверена: оптимальный вариант решения проблемы — не полный отказ от ИИ или, наоборот, абсолютная его интеграция в рабочие и иные процессы, а использование его как «напарника». Для этого психотерапевт дает три подсказки: Перестать «скроллить» ИИ. Используйте его как наставника, а не как исполнителя. Попросите наводящие вопросы, обратную связь, варианты подходов, а не готовые решения. Тренировать мозг офлайн. Пишите, планируйте, рассуждайте «вручную». Это укрепляет нейронные связи, которые ИИ не должен забирать. Удерживать внимание. Изучайте, как работает ваше сознание и подсознание. С этой точкой зрения соглашается и Андрей Полубаров. По его словам, ИИ — это не «магия» и не «угроза человечеству», а всего лишь инструмент. Как и с другими технологиями, его польза определяется не самим фактом использования, а способом применения. «Простой пример: один человек использует ИИ для генерации готовых текстов вместо их написания от начала и до конца и теряет навыки анализа и работы с материалом, а другой — для прояснения сложных тем, уточнения, суммаризации и борьбы с проблемой «чистого листа». Результаты их работы будут противоположными. Прямое сравнение можно провести с интернетом: кто-то тратит часы на бесконечную прокрастинацию, кто-то — получает степень онлайн». По мнению Полубарова, все это — вопрос мышления, поэтому главный бытовой навык, который стоит развивать, — умение задавать ИИ правильные запросы и проверять его ответы, искать информацию самостоятельно. Иначе говоря, ИИ
Комментарии (0)
Добавить