Нам нравится полагать, что каждый визит в Google - это поиск знаний или, по крайней мере, полезной информации. Конечно, но это также акт нарциссизма.
Каждый раз, когда мы получаем результаты поиска, мы вынимаем виртуальное зеркало, которое отражает то, кем мы являемся в мире Интернета. Это то, что Эли Паризер метко назвал «пузырем фильтра» в своей книге 2011 года «Пузырь фильтра: что скрывает от вас Интернет» .
Паризер изложил мышление позади алгоритмической персонализации. Тщательно отслеживая каждый наш клик, Google - а теперь и Facebook, и все больше и больше других веб-сайтов - могут, основываясь на прошлом поведении, сделать довольно хорошие предположения о том, что мы хотим знать. Это означает, что два человека, выполняющие одинаковый поиск, могут получить очень разные результаты.
Нас кормят тем, чего мы, кажется, хотим, и, поскольку мы с большей вероятностью нажимаем на элементы в нашей зоне комфорта, включая рекламу, Google и другие, мотивированы продолжать совершенствовать свои таргетинги. В результате пузыри, в которых мы живем, уменьшаются.
За всю эту точность есть цена, как указала Пэрисер в интервью Марии Поповой из Brain Pickings:
«Персонализация - это своего рода конфиденциальность, вывернутая наизнанку: проблема не в том, чтобы контролировать то, что мир знает о вас, а в том, что вы видите в этом мире».
Большая картина
Итак, мы оказались в ловушке нашего собственного лабиринта, верно?
Не обязательно, благодаря команде ученых, которые говорят, что, возможно, нашли способ избежать ограничений алгоритмов. Как недавно сообщал MIT Technology Review, Эдуардо Гралс-Гарридо в Университете Помпеу Фабра в Барселоне, а также Муниа Лалмас и Даниэль Кверчия в Yahoo Labs разработали так называемый «механизм рекомендаций», предназначенный для того, чтобы выставлять людей противостоящим взглядам.
По словам исследователей, один из ключевых моментов - это то, что эти взгляды исходят от людей, с которыми у нас общие интересы. Это, кажется, делает нас более восприимчивыми к мнениям, которые мы иначе могли бы отклонить как глупость. Другой заключается в том, чтобы представлять противоположные взгляды визуально, чтобы они чувствовали себя менее чуждыми.
С этой целью ученые использовали модель облака слов, которая позволяла участникам исследования как видеть, о каких предметах они чаще всего писали в Твиттере, а также иметь доступ к - визуально привлекательному - контенту от других, чьи В собственных облаках слов упоминается много одинаковых тем.
Но что, если некоторые из этого содержания отражают совершенно другую политическую точку зрения? Будут ли люди инстинктивно отвергать это?
Чтобы проверить свою теорию на должном уровне, исследователи связали людей по разные стороны проблемы, которая вызывает глубоко личные чувства - аборт. Они сосредоточились на тысячах активных пользователей Twitter в Чили, которые включили в свои твиты хештеги, такие как #prolife и #prochoice, создавая для них облака слов на основе наиболее часто используемых им терминов.
Затем они предоставили участникам исследования твиты от людей, у которых было много одинаковых терминов в облаках слов, но которые придерживались противоположного мнения об аборте. Исследователи обнаружили, что, поскольку люди, казалось, чувствовали связь с теми, у кого были подобные облака слов, они были более заинтересованы в их комментариях. И это имело тенденцию подвергать их гораздо более широкому кругу мнений и идей, чем они могли бы испытать иначе.
Короче говоря, исследователи использовали то, что общего у людей, чтобы сделать их более открытыми для обсуждения различий между ними. Они пришли к выводу, что они нашли «косвенный способ связать разнородных людей».
Итак, еще есть надежда.
Безумие к методу
Вот другие недавние события в иногда странном мире алгоритмов.
- Ничего похожего на автоматические «теплые личные пожелания»: это, вероятно, было неизбежно. Google только что получил патент на программное обеспечение, которое отслеживало бы ваше поведение в социальных сетях так, что оно сможет предоставить вам выбор возможных реакций на любые комментарии или запросы, встречающиеся на Facebook или Twitter. Если, например, друг получает новую работу, программа предложит ответ, предположительно что-то вроде «Поздравления». Это верно, вам не придется тратить силы своего мозга. Алгоритм сделает это за вас.
- Позвоните по телефону: Исследователи из Университета Хельсинки разработали алгоритмы для определения того, как люди передвигаются - ходьба, вождение или автобус или метро - путем отслеживания сигналов акселерометра их мобильных телефонов. Это позволяет им анализировать частоту их остановок и пусков. Исследователи говорят, что это может быть мощным инструментом, помогающим планировщикам понять, как люди перемещаются в своих городах.
- Все новости, которые подходят: Facebook доработал свои алгоритмы «подачи новостей», так что там будут появляться более актуальные новости. Идея состоит в том, чтобы дать больше ссылок на статьи из новостных организаций в фидах Facebook, что поможет сделать гигант социальных сетей более актуальным для того, что происходит в мире, помимо дней рождения друзей. Предположение состоит в том, что это попытка Facebook оспорить доминирование Twitter в создании ажиотажа вокруг текущих событий.
- Что она должна сказать о Чикагских детёнышах ?: Израильский ученый создал алгоритм, который может анализировать огромные объемы электронных данных о прошлых событиях из таких разных источников, как архив New York Times для каналов Twitter и прогнозировать, что может произойти. в будущем. В частности, ученый по имени Кира Радинский использовала свою систему, чтобы предсказать первую за многие десятилетия эпидемию холеры на Кубе и протесты, приведшие к «арабской весне».
Видео бонус: вот доклад TED, который сделал Эли Паризера и его концепцию пузыря фильтра известной.
Бонус к видео: в наши дни существуют алгоритмы для всего, и, поверьте Шелдону, из «Теории большого взрыва», которая включает в себя дружбу.
Больше от Smithsonian.com
Как большие данные изменили знакомства
Думаете, вы делаете хорошую работу? Нет, если алгоритмы говорят, что ты не