Широкое использование алгоритмов искусственного интеллекта, а особенно алгоритмов, разработанных для рекомендации контента и товаров пользователям на основе их предыдущей онлайн-активности, привело к появлению новых явлений, известных как эхо-камеры социальных медиа и информационные коконы. Эти явления ограничивают представляемую пользователю информацию и побуждают его читать только контент, который соответствует только его мировоззрению, взглядам и мнениями.
Исследователи также отметили, что информационные коконы могут иметь негативные последствия, такие как усиление предубеждений и социальной поляризации, препятствие росту, творчеству и инновациям, а также распространение недостоверной информации.
Исследователи предполагают, что появление информационных коконов связано не только с действиями самих пользователей или алгоритмов рекомендаций, но и со сложными взаимодействиями и обменами информацией между разными объектами, задействованными в алгоритмах. В частности, исследователи выделяют два ключевых процесса: неравновесие между положительной и отрицательной обратной связью, а также постоянное усиление схожести при рекомендации контента.
На основании проведенного исследования, команда планирует расширить свою модель на реальные сценарии, объяснив взаимосвязь сегрегации и поляризации. Кроме того, ученые собираются продолжить исследования в области искусственного интеллекта и его вклада в социальную сферу, а также способствовать разработке соответствующих общественных политик на основе своих результатов.