Нобелевский лауреат Джозеф Стиглиц выразил серьёзную обеспокоенность тем, что развитие ИИ ведёт к деградации информационной среды. По его мнению, обучение моделей на сомнительном контенте из соцсетей создает порочный круг, где «мусор на входе» превращается в «мусор на выходе» в промышленных масштабах.
Экономист Джозеф Стиглиц указывает на то, что современные большие языковые модели (LLM) не создают новые знания, а лишь перерабатывают существующие данные, включая комментарии в соцсетях и сообщения на экстремистских форумах. Он описывает эту проблему классическим принципом GIGO — «Garbage In, Garbage Out» (мусор на входе — мусор на выходе). По словам лауреата, искусственный интеллект эффективно обрабатывает любую предоставленную ему информацию, но не способен надежно отличать качественные знания от информационного шума.
Стиглиц опасается, что пользователи будут принимать «отполированные» ответы нейросетей за истину. В интервью Fortune он подчеркнул, что глубокая обработка данных ИИ не заменяет одну качественную исследовательскую работу. Использование низкокачественного контента, такого как непроверенные утверждения и теории заговора, приводит к тому, что на выходе система выдает столь же искаженные результаты, которые лишь выглядят убедительно.
По мнению Стиглица, компании-разработчики ИИ фактически «крадут информацию» у традиционных медиа, бесплатно используя труд журналистов и исследователей для обучения своих моделей. Хотя некоторые организации, такие как OpenAI, заключают сделки с владельцами СМИ, общая тенденция ведёт к лишению качественной прессы ресурсов и стимулов для производства глубокого контента. Когда ИИ-модели поглощают данные без оплаты их создателям, институты, производящие высококачественные знания, теряют доходы.
В результате на рынке информации исчезают стимулы для проведения базовых качественных исследований. Происходит замещение глубокого анализа поверхностными результатами работы ИИ. Стиглиц подчеркивает, что это подрывает работу предсказательных рынков и финансовых моделей, которые начинают опираться на дешевый и массовый контент вместо реальных фактов. Система, предназначенная для агрегации знаний, в итоге лишь усиливает то, что является наиболее доступным и многочисленным в сети.
Проблема искажения реальности особенно заметна в научно-медицинской сфере. Стиглиц приводит в пример дискуссии о вакцинации: «Антипрививочники гораздо активнее в интернете, чем люди, заявляющие, что вакцины работают». Учёные проводят клинические испытания и публикуют сухие научные работы, в то время как сторонники теорий заговора ежедневно генерируют огромные объёмы контента на форумах и в социальных сетях.
Современные алгоритмы ИИ ориентируются на частоту упоминаний и вовлеченность пользователей, а не на верифицированные научные данные. По словам экономиста, современные LLM не обладают способностью определить, что одна научная статья о тестировании вакцины и её эффективности важнее тысячи постов в соцсетях. Для моделей, обученных на частоте упоминаний, «побеждают» самые громкие голоса, что искажает восприятие реальности в областях, где общественное благо зависит от доверия к доказательной науке.
Несмотря на критику, Джозеф Стиглиц не призывает к полному отказу от технологий. Он сам использует ИИ в своей исследовательской деятельности и обучает студентов работе с ним. Экономист рассматривает нейросети как вспомогательный инструмент, который помогает находить источники и развивать идеи, но подчеркивает, что они не могут заменить самостоятельное мышление и глубокий анализ. Выводы моделей для него являются лишь поводом для размышлений, а не окончательным вердиктом.
Для защиты информационной экосистемы эксперт считает необходимым государственное регулирование. Без вмешательства властей сохраняется значительный риск дальнейшего ухудшения качества информации во многих критически важных сферах. Стиглиц настаивает на важности сохранения критического мышления, указывая на то, что пользователям необходимо выполнять «трудную работу» по анализу данных самостоятельно, не полагаясь на ИИ как на оракула. Отсутствие контроля над тем, как ИИ-компании собирают данные, ведёт к ослаблению стимулов для создания качественной инфосферы.