В последнее время все больше людей по всему миру отказываются от использования искусственного интеллекта осознанно. Эта тенденция обусловлена не только опасениями, связанными с новыми технологиями, но и этическими вопросами, а также тревогой о влиянии на когнитивные способности.

Unsplash
По мере того, как искусственный интеллект все активнее внедряется в различные области — начиная с написания дипломных работ и заканчивая созданием музыки и оказанием психологической поддержки — возникает противоположная тенденция. Растет число людей, которые намеренно отказываются от использования нейросетей, идентифицируя себя как «ИИ-веганы».
Как пишет издание Forbes, этот термин описывает не просто страх перед новыми технологиями, а целый комплекс этических, психологических и социальных опасений, который превращает «ИИ-веганство» в заметный культурный тренд.
Основоположник искусственного интеллекта выразил обеспокоенность, заявив, что стремительное развитие этой технологии может привести к непредсказуемым последствиям, включая сценарий, в котором ИИ попытается установить контроль над миром
Согласно исследованиям, использование искусственного интеллекта не всегда приводит к ускорению рабочих процессов; напротив, зачастую наблюдается снижение производительности
Развитие ИИ-платформ, таких как ChatGPT от OpenAI или Grok от xAI Илона Маска, достигло впечатляющих масштабов. Их аудитория, по оценкам аналитиков, выросла со 110 миллионов человек в 2020 году до 314 миллионов в 2025-м. Однако вместе с ростом популярности увеличивается и число тех, кто относится к этому прогрессу с недоверием.
Среди факторов, побуждающих людей идентифицировать себя как «ИИ-веганов», выделяется широкий спектр этических соображений. Значительные дебаты вызывает тот факт, что для обучения нейронных сетей используются обширные наборы данных, содержащие тексты и изображения, созданные людьми, нередко без их согласия и без какой-либо оплаты. Это вызывает вопросы о соблюдении авторских прав и приводит к восприятию технологии как формы эксплуатации.
Не менее значимым фактором является отсутствие прозрачности. Искусственный интеллект нередко функционирует как «черный ящик», что затрудняет понимание пользователем, какие данные и логические связи определяют выводы системы. Это порождает естественное недоверие, которое специалисты обозначают как «алгоритмическую аверсию» — даже при подтвержденной точности ИИ, люди склонны больше доверять мнению живого эксперта.
Психологический аспект также играет важную роль. Когда искусственный интеллект начинает выполнять творческие или интеллектуальные задачи, ранее выполнявшиеся исключительно человеком, это может вызывать так называемый «эффект угрозы идентичности». У людей возникает ощущение, что технологии лишают их уникальности, обесценивая человеческие навыки и таланты.
«Ограничения на работу МВД имеют отношение к тому, как в стране решается вопрос об уголовной ответственности за распространение фейков, а также к ситуации с законопроектом о реестре СМИ-иноагентов,» — сказала представитель Роскомнадзора, комментируя блокировку.
Она добавила, что «без учета этих факторов не может быть решения вопроса об ограничении работы МВД
Креативные специалисты, такие как журналисты, художники и другие представители творческих профессий, выражают обеспокоенность тем, что развитие более доступных и быстрых систем искусственного интеллекта может привести к сокращению рабочих мест, снижению ценности их труда и поставить под вопрос достоверность создаваемого контента.
Растущая роль искусственного интеллекта вызывает опасения в отношении его воздействия на человеческий мозг. Специалисты в области психологии проводят параллели между функционированием диалоговых ИИ и методами нейромаркетинга: эти системы разработаны для максимального удержания внимания пользователя. Они изучают запросы, выявляют факторы, вызывающие отклик, и применяют психологические приемы, чтобы стимулировать дальнейшее взаимодействие. В результате этого пользователь тратит время и расходует когнитивные ресурсы.
Данные опасения находят подтверждение в исследованиях. Эксперты из MIT Media Lab установили, что люди, создававшие эссе с использованием ИИ, показывали сниженную функциональную связность мозга и хуже запоминали информацию, чем те, кто выполнял работу без помощи ИИ. Чрезмерная зависимость от ИИ может ослаблять критическое мышление и нейронные связи. В то же время, использование ИИ в качестве наставника, который направляет, а не делает работу за человека, наоборот, способствовало росту успеваемости.
Нельзя не учитывать и экологическую составляющую. Центры обработки данных, необходимые для функционирования масштабных ИИ-моделей, характеризуются значительным потреблением электроэнергии и воды, что оказывает влияние на глобальные экологические вызовы.
По мнению специалистов, полный отказ от ИИ не является оптимальным решением. Более эффективным представляется разработка взвешенного подхода к применению этой технологии, в котором ИИ будет выступать в качестве инструмента поддержки или «партнера», а не самостоятельного исполнителя.
По мнению экспертов, искусственный интеллект не сможет заменить человека, обладающего способностью к мышлению, однако он вполне может заменить тех, кто лишен этой способности».