Михал Косински: мы не заметим как мир захватит искусственный интеллект. Расследование Das Magazin: как Big Data и пара ученых обеспечили победу Трампу и Brexit Чем занимается Cambridge Analytica в Европе

Британская компания Cambridge Analytica помогла Дональду Трампу выиграть президентские выборы в США с помощью технологий Больших данных и персонально таргетированной рекламы в интернете. До этого та же фирма работала со сторонниками Brexit в Британии, а теперь заключила контракт с французским «Национальным фронтом». Правда ли, что неожиданные исходы голосований в разных странах - не провал социологии, а победа социологии нового типа? Собеседник Радио Свобода Михал Косински, исследования которого косвенно связаны с деятельностью Cambridge Analytica, считает, что это преувеличение, но технологии Больших данных и снижение приватности сулят миру глобальные перемены.

Еще в конце сентября, в разгар выборов, выступая в Нью-Йорке на саммите Concordia, ежегодном мероприятии для влиятельных политиков и бизнесменов со всего мира, основатель Cambridge Analytica Александр Никс рассказывал, как новая технология позволила повысить эффективность кампании соперника Трампа по республиканской номинации Тэда Круза, к началу гонки практически никому не известного кандидата. Никс рассказывал, как, например, людям разного склада характера стоит по-разному преподносить мнение кандидата по поводу закона о свободном распространении оружия: боязливым людям с высоким уровнем нейротизма оружие можно представить как источник безопасности, а богатым консерваторам-экстравертам показать картинку утиной охоты.

Позже Cambridge Analytica помогала уже самому Трампу, причем, по оценкам Никса, за относительно скромное вознаграждение, в общей сложности, порядка 15 миллионов долларов. С помощью анализа данных, которые оставляют в сети все пользователи интернета, специалистам компании удалось найти неочевидные связи и паттерны (например, что люди, предпочитающие машины американского производства, - готовые избиратели Трампа) и использовать их для таргетирования рекламы в интернете, для персонализации посланий, исходящих из штаба республиканского кандидата. Жителям квартала Маленький Гаити в Майями показывали информацию об отказе Хиллари Клинтон участвовать в ликвидации последствий землетрясения на Гаити, афроамериканцам - видео, где Клинтон сравнивает темнокожих мужчин с хищниками. Волонтеры Трампа получили подробный профайл жителей домов, где они собирались вести прямую агитацию.

Сложно сказать, насколько велико влияние, которое работа Cambridge Analytica оказала на исход выборов в США, но эта кампания - не единственный пример, когда в победителях оказываются именно те, кто нанял эту фирму. Так, еще в 2015 году услугами Cambridge Analytica начал пользоваться радикальный сторонник Brexit Найджел Фарадж. Швейцарское издание Das Magasin, недавно опубликовавшее расследование о деятельности Cambridge Analytica, рассказывает, что теперь компания получила контракт с французским «Национальным фронтом», кроме того, в сотрудничестве заинтересованы некоторые политические силы в Швейцарии, Германии и, возможно, Италии.

Михал Косински

Один из героев публикации Das Magasin - Михал Косински, исследователь польского происхождения, в прошлом - заместитель директора Центра психометрии Кембриджского университета, а в настоящее время - доцент Стэнфордского университета США. На протяжении нескольких лет Косински с коллегами по Кембриджу разрабатывали систему, которая на основе активности пользователя в социальной сети составляет подробный психологический профиль человека. Система способна не только описывать особенности характера, но и предсказывать, среди прочего, пол, сексуальную ориентацию, цвет кожи и даже политические предпочтения пользователя.

Швейцарские журналисты рассказывают, что в начале 2014 года к Косински обратился коллега, Александр Коган, который предложил молодому исследователю применить созданную им модель для анализа нескольких миллионов профилей американских граждан по заказу некой компании. Как стало ясно позже, эта компания была связана с Cambridge Analytica. Косински отказался от сотрудничества, но методы, которые Cambridge Analytica применяла в ходе референдума в Британии и президентских выборов в США, как минимум очень напоминают модели, придуманные Михалом Косински.

Радио Свобода дозвонилось Косински в Калифорнию и расспросило его о том, что именно можно сказать о человеке по его «цифровому следу», насколько стоит доверять громким заявлениям Cambridge Analytica, проиграна ли война за приватность и опаснее ли искусственный интеллект Дональда Трампа.

- Что такое психометрия? Чем вы занимаетесь как исследователь?

Сама по себе психометрия - древняя наука, думаю, ей два или три тысячелетия. В сущности, это наука психологических измерений, попыток как можно точнее установить различные психологические аспекты, личность, интеллектуальные способности, счастье, склонность к депрессии и так далее. Традиционно такие измерения производились с помощью опросников, психологических тестов, но относительно недавно я и некоторые другие психометристы поняли, что их можно делать, оценивая цифровой след человека, - и тогда никакие вопросы можно не задавать, никаких опросников и тестов не нужно. И это революционный момент. Важность истории Cambridge Analytica, о которой написало издание Das Magasin, на самом деле не в том, что компания помогла Трампу в предвыборной гонке. Это коммерческая фирма, у них есть технология, они хотят зарабатывать деньги, здесь все ясно. Важно то, что если раньше вы хотели составить чей-то психологический профиль, вы должны были попросить человека заполнить опросник, пройти тест - и испытуемый хорошо понимал, что вот сейчас, в этот самый момент, кто-то измеряет его психологические характеристики. А теперь можно делать то же самое, но человек не узнает, что его самые интимные особенности прямо сейчас кто-то оценивает и измеряет. Достаточно посмотреть на цифровой след: записи в социальных сетях, лайки, историю просмотра страниц в интернете, историю поисковых запросов. На основе этих данных можно составить невероятно точный психологический портрет. С одной стороны, это кажется чем-то пугающим, с другой, в этом может быть и много пользы. Например, какая-нибудь интернет-платформа может предложить наиболее подходящую по вашему характеру и способностям работу или посоветовать фильм, который вам наверняка понравится. Это нормально. Но когда вы открываете вашу страницу в «Фейсбуке» и видите там рекламу, персонально направленную, таргетированную для вас на основе вашего подробного психологического профиля, который был составлен без вашего ведома и согласия, это уже не очень нормально.

Вот лично вы могли бы составить мой полный психологический профиль, зная только мое имя, на основе следа, который я оставил в интернете?

Я ученый и просто не стал бы этим заниматься. Если бы вы добровольно захотели помочь моему исследованию и предоставили свои данные, я бы с удовольствием включил их в свою базу данных, анонимизировал и пообещал никогда никому не продавать и не передавать. Но многие компании, конечно, постоянно собирают информацию о вас без спроса и используют ее, например, для таргетированной рекламы.

Эта информация, конечно, не хранится в одном месте - одной компании известны данные моей геолокации, другой - финансовые транзакции, третьей - лайки в «Фейсбуке». Все это можно собрать воедино?

Ну, во-первых, это обычно и не нужно. Обычно для построения точного профиля вполне достаточно чего-то одного - ваших интересов в «Фейсбуке», например, или истории посещений страниц из браузера. Во-вторых, компании, собирающие информацию о вас, обычно обмениваются ей друг с другом или просто продают на общем рынке данных. Есть проекты, вроде Acxiom, которые все собирают воедино и продают фирмам типа Cambridge Analyticа. Ты просто можешь прийти и сказать - мне нужны данные на 10 миллионов американцев из такого-то региона, и они эти данные с удовольствием продадут. В-третьих, для того чтобы вести кампанию с личным таргетингом, вовсе необязательно иметь именно индивидуальные данные пользователей. Можно использовать так называемое поведенческое таргетирование. Например, вы не можете попросить «Фейсбук» показать определенную рекламу для всех людей, склонных к определенному типу поведения. Но у вас может быть модель, связывающая этот тип поведения с каким-то психологическим профилем, причем эту модель вы даже могли вполне честно построить - заплатили нескольким десяткам тысяч людей небольшой гонорар за заполнение опросника. И когда модель построена, вы спрашиваете ее: как мне найти эмоциональных экстравертов? Модель отвечает - нет проблем, это те, кто лайкнул такие-то десять книг, такие-то десять фильмов и такие-то десять музыкантов. Теперь вы снова идете в «Фейсбук» со своей рекламой, только вам уже не нужно просить показать ее именно эмоциональным экстравертам, чего «Фейсбук» бы делать не стал. Вместо этого вы просите показать рекламу тем, у кого есть определенный набор лайков. В итоге получается, что у вас не было никаких персональных данных, но вы провели персонально таргетированную рекламу.

Есть ли компании, которые стремятся составить психологический профиль всего человечества, во всяком случае всех, кто оставляет цифровые следы?

Вряд ли кто-то мыслит в настолько глобальных категориях, но до некоторой степени этим занимается Facebook, Google, Microsoft, Visa, Mastercard, тот же Acxiom. И все эти данные широко торгуются на рынке.

То есть где-то на рынке продается, например, и мой психологический профиль, причем невероятно точный. Вы сказали в комментарии для издания Das Magazin, что достаточно всего нескольких лайков в «Фейсбуке», чтобы система узнала вас лучше, чем ближайший друг. Это действительно так?

Да, об этом было интересное исследование. Достаточно десяти лайков (интересов), чтобы система смогла лучше распознать вашу личность, чем коллега по работе, а по 230–240 лайкам компьютер будет знать о вас больше, чем ваш супруг или супруга.

- Но что именно это значит - знать больше?

Это значит, что если попросить компьютер заполнить вместо вас психологический опросник, он ошибется меньше, чем ваша жена.

- Это ответы на вопросы вроде «Боитесь ли вы темноты»?

Да, типичные вопросы психологических опросников. Так что действительно, где-то на рынке можно купить очень точную информацию о вашей личности, в том числе о ваших политических пристрастиях, о вашей религиозности, о вашей сексуальной ориентации, о вашем IQ. Примерно понять, что о вас известно по вашим интересам на «Фейсбуке», можно с помощью сайта Applymagicsauce.com, но это, конечно, далеко не полная картина.

Давайте обратимся к истории с Cambridge Analytica. Скажите, вы действительно не имеете никакого отношения к этой компании?

Нет, и никогда не имел. Я услышал о ее существовании из прессы.

Александр Коган, который, как утверждает издание Das Magazin, предложил Cambridge Analytica технологию психологического профайлинга, был вашим коллегой?

Да, он был моим коллегой, точнее, он был доцентом на психологическом факультете Кембриджского университета в то время, когда я был там же аспирантом. Но наши пути давно разошлись, он основал небольшую компанию и, насколько я понял из прессы, продавал данные Cambridge Analytica, а я остался в академическом мире.

- Можно ли предположить, что Cambridge Analytica использует разработанные вами модели?

Я бы сказал, что они используют похожие модели, но, видите ли, чтобы разработать такую модель, не нужно особенно глубокой науки, в этом нет никакой магии. Это может сделать любой человек, у которого есть базовые навыки программирования, немного денег и компьютер, подключенный к интернету, - собственно, именно это и делает проблему такой значительной. Здесь используются самые стандартные статистические методы, ничего особенного. Главная мысль моих публикаций в том, что это легко, важно лишь изменить фокус: для психометрии больше не нужны опросники и тесты, достаточно иметь цифровой след человека. И это дает огромные преимущества, можно улучшить маркетинг, карьерное планирование, методы психологической помощи, много чего еще. Но ту же технологию можно использовать и против людей. Я уверен, что Александр Коган был в курсе моих исследований и, хотя об этом я могу судить только по сообщениям журналистов, он сделал ровно то, что я предлагал, и продал результат компании Cambridge Analytica. Я много раз говорил и явно указывал в своих статьях, что не хотел никого вдохновить на такого рода деятельность, более того, я уверен, что люди занимались цифровым психологическим профайлингом задолго до меня, просто не рассказывали об этом так активно, как Cambridge Analytica. Я как раз призываю разработать политику, процедуры, которые бы определяли этичное использование этой технологии.

Как вы думаете, Cambridge Analytica действительно могла существенно повлиять на результаты американских президентских выборов?

Честно говоря, я не знаю. Ясно, что Cambridge Analytica заинтересована в том, чтобы как можно громче трубить о своем успехе, но в конечном итоге результаты выборов определяют не методы Больших данных, а кандидаты, да еще, как теперь особенно хорошо видно, избиратели, не ходящие на выборы. Возможно, деятельность Cambridge Analytica стала той самой последней каплей, которая предопределила окончательный результат, но скорее всего, этого наверняка не знает и сам Александр Никс. С другой стороны, мы должны отдавать себе отчет, что технология есть, и защититься от нее практически невозможно. Вы можете перестать пользоваться «Фейсбуком», но все равно будете писать электронные письма. Решите пользоваться голубиной почтой - не обойдетесь без кредитной карты. Может быть, страны могли бы принимать законы, ограничивающие такие методы, но и это может не сработать. Между прочим, я не знаю наверняка, но слышал, что то, что делали Cambridge Analytica для Трампа, противоречило действующему американскому законодательству, и поэтому непосредственный анализ данных они делали в Британии. Знаете, я ученый, я занимаюсь психометрикой, я не специалист в политике, демократии и свободе, но мне кажется, нам придется принять тот факт, что никакой приватности не останется. Вместо того, чтобы ввязываться в очередную битву за приватность, стоит признать, что уже проиграна война, и лучше озаботиться тем, чтобы мир стал благоприятной средой для человека, лишенного приватности.

России планирует в 2018 г. ввести систему оценки кредитоспособности заемщиков по психометрическим моделям, сообщил старший вице-президент Сбербанка Александр Ведяхин.

«В 2018 г., я думаю, это уже будет. Идеальный вариант - что лицо, телефон, чтобы мы поняли, кто, все следы, все источники, чтобы стало понятно, что это за человек, и если он лайкает тюремные четки и "Владимирский централ", то навряд ли ему надо сразу одобрять кредит, скорее всего, еще раз надо что-нибудь посмотреть», - заявил Ведяхин (цитата по «Интерфаксу»).

В Сбербанке прогнозируют появление роботов-гуманоидов через 10–15 лет

Через 10-15 лет появятся роботы-андроиды, обладающие универсальным искусственным интеллектом, сообщил Ведяхин. По его словам, существующие системы искусственного интеллекта ограничены специфическими, поставленными разработчиками конкретными задачами, а гуманоидные роботы будут оснащены универсальным интеллектом. Такие человекоподобные роботы смогут применяться практически в любой сфере, сказал Ведяхин. При этом их можно будет обучать имитировать человеческие эмоции.

По словам топ-менеджера, уже работает пилотный проект по психологическому скорингу, в котором принимает участие «ограниченная выборка» согласившихся клиентов. «Мы полностью действуем в соответствии с законодательством относительно защиты персональных данных, поэтому здесь то направление, где мы работаем. Это прототип, который мы изучаем внутри, но здесь мы берем полное согласие клиентов», - отметил старший вице-президент Сбербанка.

Ведяхин уточнил, что психометрический скоринг будет проводиться на основе метода, разработанного польским исследователем Михаилом Косински. Косински является ведущим специалистом в психометрии – разделе психологии, основанном на анализе данных. Он разработал систему, которая, анализируя действия пользователя в социальной сети, составляет психологический портрет человека.

Об исследовании ученых Кембриджского и Стэнфордского университетов писала Financial Times. Ученые пришли к выводу, что профиль пользователя, составленный на основе его лайков в социальной сети Facebook , лучше описывает его личность, чем это делают даже самые близкие люди. В Кембриджском и Стэнфордском университетах пришли к выводу, что компьютер описывает личность человека лучше, чем его коллега, после анализа лишь 10 лайков, чем друг - после 70 лайков, чем родственник - после 150 лайков и чем супруг - после 300 лайков. Среднее по Facebook количество отметок «нравится», приходящееся на пользователя, - 227, замечает FT.

Михаил Косински - гуру цифровой психометрии, анализирующей людей по их дигитальным следам. Что будет с нашей приватностью, с тревогой выясняла у него Ника Дубровская.

Михал Косински - психолог, специалист по big data, бывший заместитель директора Центра психометрии Кембриджского университета, сейчас доцент Стэнфордского университета, один из ведущих спецов в мире по психометрии нового образца, которую бизнес, политика, спецслужбы, здравоохранение или просто другие люди могут использовать в своих целях.

- Расскажи о том, что такое психометрия, как давно она существует и как развивалась.

Психометрия - это наука, изучающая теорию и методику психологических измерений. Ей занимаются психологи, которые анализируют личностные черты человека с помощью различных анкет и тестов. Существует она очень давно: более тысячи лет назад китайских чиновников нанимали на работу на основе стандартизированных тестов, подобных современным GMAT и SAT, которые мы используем в Америке сегодня.

Самое большое изменение в психометрии заключается в том, что вместо опроса людей с помощью анкет теперь мы можем наблюдать за их поведением. Психологи давно знают, что лучший способ оценить человека - пронаблюдать за ним. Вместо того чтобы спрашивать, как часто вы ходите на вечеринки, лучше это самим увидеть. В реальной жизни это очень трудно, потребовалось бы невероятное количество времени и ресурсов, чтобы следить за людьми и записывать, чем они занимаются, не говоря уже о том, что это довольно жутко.

Но в мире новых технологий мы сами, не задумываясь, оставляем множество цифровых отпечатков - каждый раз, когда пользуемся Facebook, браузером, Google, смартфоном. Сегодня нетрудно использовать эти данные, чтобы составить портрет человека. И у этого метода много преимуществ. Например, людям сложнее исказить информацию о себе. В прошлом если ты солгал в психологическом тесте, то легко мог получить преимущество перед тем, кто был честен. Сегодня тебе пришлось бы полностью изменить свое поведение и придерживаться его много лет подряд, чтобы обмануть систему. Так что если ты действительно в состоянии в течение пяти лет вести себя как хорошо организованный человек, то, вероятно, ты им и являешься.

Мне бы тоже хотелось узнать свой психологический профиль. Но ведь это интересует не только меня, но и тех, кто не прочь продать мне что-нибудь или как-то на меня повлиять.

Безусловно, есть люди, которые этого хотят, и в некотором смысле это даже хорошо. Министр здравоохранения хочет, чтобы ты не курила, питалась здоровой пищей и жила дольше. И у него больше шансов помочь тебе, если он будет знать, как тебе это правильно подать. Твой школьный учитель помогает тебе стать хорошим, честным человеком. Есть множество примеров, когда на наше поведение влияют нам же во благо.

Я не сторонник того, чтобы вся персональная информация была в открытом доступе и чтобы любой желающий мог получить ее без нашего ведома. Но если человек согласен, мы могли бы, например, помочь ему найти работу, на которой он может реализовать себя, ради которой ему хотелось бы вставать по утрам. Или проследить симптомы психических заболеваний и даже предвидеть высокий риск самоубийства, анализируя фотографии лиц или цифровые следы. Болезнь влияет на твое поведение, но это влияние может быть настолько малым, что обычный человек, в отличие от компьютеров, его не заметит. В прошлом только люди c деньгами могли позволить себе визиты к психологу. Сегодня благодаря алгоритмам мы можем дать все это простым людям, не предлагая им тратить сотни долларов в кабинетах врачей.

Или подумай, например, об образовании. Предположим, учитель что-то рассказывает аудитории - но к кому он в действительности обращается? Он говорит со средним студентом, которого на самом деле не существует. В результате много студентов скучает: для кого-то он говорит слишком быстро, для кого-то - слишком медленно. И мы разрабатываем алгоритмы, которые могут определять, насколько быстро студент справляется с заданиями, и подстраивать под него программу. Быстрый студент будет в состоянии прогрессировать быстро, медлительный не будет брошен в отстающих, потому что компьютер терпеливо подождет и объяснит ему все более четко.

И как же именно, основываясь на наблюдении за поведением пользователей онлайн, можно узнать о них что-то личное?

Пока ты пользуешься Facebook, он изучает твое поведение и на основе этой информации создает твой психологический профиль. Впоследствии он используется другими алгоритмами, чтобы в ленте отображались только интересующие тебя новости и истории. И это классно, потому что иначе тебе бы очень быстро надоело сталкиваться с ненужной информацией. Те же механизмы Facebook использует, чтобы показывать тебе рекламу. Это тоже отлично - зачем тебе видеть объявления, которые тебя вообще не интересуют? Facebook должен показывать рекламу, чтобы зарабатывать, - для нас это своего рода плата за пользование. Но лучше, чтобы эти объявления, по крайней мере, были полезными. Так что в целевом маркетинге часто нет ничего плохого, если никто не вторгается в твою жизнь без твоего ведома и согласия. Конечно, у всех должна быть возможность отказаться, запретить алгоритму создавать профиль. Но всем остальным это заметно облегчает жизнь.

Очень странно, что ты так оптимистично настроен. В других интервью, после победы Трампа, ты был куда менее жизнерадостен.

Это журналисты выбирают только негативное. Плохие новости продаются, никто не хочет слушать ничего оптимистического.

И тем не менее. Например, я - американский гражданин, и на последних выборах я не голосовала, потому что не хотела отдавать голос за Хиллари, но была абсолютно уверена, что она в любом случае победит. Но теперь я думаю, что это решение навязал мне Facebook, фильтруя информацию в ленте. Мой профиль говорит о том, что я не буду голосовать за Трампа, но могу, если что, не проголосовать и за Хиллари тоже. Вот за это «если что» система и могла ухватиться.

Да, люди говорят об информационном пузыре, даже Обама упоминал его в прощальной речи. Это модный тренд, основанный на ложном представлении. Есть даже институты, которые по сути являются научно-исследовательскими центрами по изучению феномена информационного пузыря. Очевидно, что если ты - научно-исследовательский центр по изучению какой-то проблемы, ты ее найдешь, поскольку получаешь на это гранты. Но на самом деле нет никакого научного обоснования информационных пузырей. Как раз наоборот.

В прошлом такой феномен действительно был, и он был связан с тем, что из информационного пузыря невозможно было выбраться. Если ты жил в России, то слышал только российскую пропаганду. Если родился в богатой английской семье, то получал информацию только от зажиточных друзей. Если в деревне, то только от своих священника и библиотекаря.

Теперь у нас есть интернет. Но у людей сохранилась тенденция воспринимать только информацию, подтверждающую их взгляды. Эта склонность к подтверждению своей точки зрения - одно из наиболее исследованных когнитивных искажений в психологии. Оно подразумевает, что если ты либерал, то ты предпочитаешь либеральную информацию, если консерватор - консервативную. Раньше ты ничего не мог с этим поделать, даже не понимал этого. Но сегодня на Facebook ты время от времени сталкиваешься с совершенно сумасшедшей информацией от людей, которые находятся за пределами твоего пузыря. Это дает тебе возможность узнать что-то, абсолютно противоположное тому, что ты знал до этого.

Сегодня люди потребляют беспрецедентное разнообразие информации, причем не только в политической сфере. Недавно я разговаривал с главным инженером Spotify, и он сказал мне, что только за 2016 год вариативность музыкальных коллективов, которые слушают люди, увеличилась в среднем на 20%. Так что, даже несмотря на нашу предрасположенность, мы все равно получаем более широкую информацию. Очевидно, что часть ее будет низкого качества, а часть - просто фальшивкой. Это новые медиа, и мы должны научиться пользоваться ими, фильтровать - этот навык сегодня становится важнее, чем когда-либо.

И целевой политический маркетинг - тоже вещь хорошая. Если ты живешь в большом городе, проблемы, связанные с сельским хозяйством, тебя не интересуют. И если ты увидишь на ТВ политика, который говорит об этом, ты, вероятно, переключишь канал, а это неправильно, потому что ты исключаешь себя из политического процесса. Но новый алгоритм дает политикам возможность общаться с избирателями один на один о проблемах, которые их интересуют. Программы партий - это длинные документы, сотни, если не тысячи, страниц. Простой человек не сможет в них разобраться. Алгоритмы позволяют выбрать часть программы, которая относится к тебе, и показать ее так, что ты можешь с ней ознакомиться.

Это раньше политики просто посылали одно сообщение всем сразу о проблеме, до которой многим не было дела. Теперь они могут говорить о том, что актуально для тебя. И очевидно, что некоторые начнут делать это раньше, некоторые позже. Те, кто раньше, получат преимущество просто потому, что они уже сейчас слышат тебя лучше. Другие политики вскоре подключатся, и равновесие сил будет восстановлено, мы все извлечем из этого выгоду.

- Но пока в авангарде Трамп…

Да, Трамп - это история успеха парня без поддержки крупных лоббистов. Это ведь было просто смешно: у него не было внятной идеи, он говорил глупости. У Клинтон был в разы больший бюджет. Но Трамп обратился к людям напрямую. Берни Сандерс тоже сегодня может зайти на выборах далеко просто потому, что ему есть что сказать в Твиттере, - это настоящая революция в политике. Еще 10 или 20 лет назад никто бы о нем не услышал.

Вопрос в том, есть ли у меня или у любого пользователя реальная возможность остановить постоянную слежку и выбраться из паутины, собирающей персональную информацию.

Остановить это невозможно. Хотя можно просто прекратить пользоваться Facebook и Твиттером. Кстати, эти две компании собирают данные наименее агрессивно. Подумай о кредитной карте или веб-браузере - это очень личные данные, цифровые следы, которые действительно могут сказать о тебе многое. Так что пришлось бы выключить свет, переехать в пещеру посреди леса и избавиться от всех цифровых устройств. И даже в этом случае тебя нашел бы какой-нибудь турист и сделал бы твой снимок, потому что ты чудак. И вот снова ты оставляешь цифровые следы. Готовых решений тут нет, нужно быть осторожным, анализировать, создавать новую политику конфиденциальности, разрабатывать необходимые технологии для ее реализации. Можно голосовать за политиков, которые относятся серьезно к вопросам приватности.

- Менять законы?

Я думаю, это просто замедляет процесс. Если ты примешь закон, запрещающий любое профилирование пользователей, это приведет к коллапсу, вся рекомендательная система прекратит работать. Твой Spotify, Last.fm, Netflix, Facebook - всё. Результаты поисковой выдачи, которые ты видишь, - тоже часть рекомендательного механизма, и Google прекратил бы работать тоже. В целом я считаю, что, поскольку мы все сильнее погружаемся в цифровую среду и оставляем все больше дигитальных отпечатков, а алгоритмы становятся все умнее, сохранить приватность в будущем у нас не получится.

- И что будет означать эта потеря приватности?

Возможно, в будущем ты не сможешь скрыть даже свои самые личные черты. Сегодня ты можешь сказать мне, какие у тебя политические взгляды, сексуальная ориентация, религиозная принадлежность, а можешь и не говорить. Но в будущем у тебя может не быть такого выбора. Алгоритмы видят тебя насквозь. Уже сегодня мы в состоянии взять фотографию любого человека и с точностью более 90% определить, какая у него сексуальная ориентация, не прибегая к анализу дополнительных данных. Не говоря уже о том, сколько о тебе можно узнать, когда есть лайки и твиты. Это будут в состоянии сделать правительства, компании и даже обычные люди. То, что Штази делала в Восточной Германии, используя сотни тысяч людей на зарплате, сегодня может сделать за своим ноутбуком ученик средней школы.

При этом та же самая технология представляет гораздо большую опасность для людей, живущих в таких странах, как Саудовская Аравия или, возможно, Россия. Если ты живешь в Саудовской Аравии и алгоритм может сообщить правительству, какие у тебя политические взгляды и сексуальная ориентация, - тебя могут просто убить.

- При этом тот же Фейсбук - это еще и частная компания, бизнес.

Кто контролирует медиа - это важно. Очевидно, что Марк Цукерберг сегодня единолично управляет средой, которую множество людей использует для потребления информации. Ларри Пейдж и Сергей Брин управляют еще одной средой, которая потенциально имеет огромное влияние на результаты выборов. И это действительно опасно на многих уровнях. Возможно, все они - хорошие парни, но кто знает наверняка? Предположим, Цукерберг в порядке, но что, если следующий Цукерберг - монстр? Для демократии всегда плохо, когда один человек имеет слишком много власти, но это - то, с чем мы уже имеем дело сейчас.

Прежде всего, Цукерберг может изменить свой алгоритм. Но Марк, по крайней мере, - ответственное лицо, и люди знают: если что, его можно обвинять. А у простого разработчика, анонимного парня, который сидит в серверной, такой ответственности нет. Завтра он может изменить пару строк кода в алгоритме работы Facebook и повлиять на работу этой огромной машины, и этого никто не заметит, более того, людям будет сложно вычислить, что это сделал именно он.

Вторая проблема состоит в том, что алгоритм может начать делать вещи, которых никто не ожидает, даже сам Цукерберг и его разработчики. В прошлом, если у тебя была газета и ты хотел завести политическую колонку, ты организовывал встречу с редакторами и говорил им, как это должно выглядеть. Это было легко контролировать, и как владелец ты сразу видел, если твоя газета печатала что-то не то.

Алгоритмы Facebook контролировать гораздо сложнее, они показывают всем разные вещи. Ни Цукерберг, ни его инженеры не в силах понять, что этот алгоритм фактически делает, что происходит у него внутри. То есть мы, конечно, можем понять, как это работает, ведь даже нейронные сети довольно просты - но они огромны. Там такое количество слоев этих простых вещей, что система становится совершенно непонятной. Это делает возможной парадоксальную ситуацию, когда алгоритм Цукерберга начнет делать вещи, о которых мы не догадываемся и которые, соответственно, не можем проконтролировать.

- Ничего себе. И каким видишь ты решение этой проблемы?

Традиционные СМИ находятся под контролем общественных организаций и правительственных медиаагентств, следящих за тем, чтобы журналисты не публиковали ложную информацию. Я думаю, что те же самые стандарты должны применяться и к таким компаниям, как Facebook или Google. Очевидно, что это намного сложнее осуществить, поскольку у каждого пользователя Facebook свой персонализированный опыт. Это не похоже на отношения с традиционными СМИ, когда ты можешь подсчитать, кто сколько раз солгал, и оштрафовать их. Но я думаю, что мы можем анализировать опыт случайных десяти или ста тысяч пользователей и на основе этого делать выводы о поведении алгоритма в целом.

- Ты предлагаешь контролировать алгоритм, а не пользователя, верно?

Я предлагаю использовать один алгоритм, чтобы контролировать другие алгоритмы. Если бы за работой алгоритмов Марка Цукерберга следили другие алгоритмы, не только он полнее осознавал бы свою ответственность, но и люди больше доверяли бы ему. Общество, политики, Цукерберг - мы все должны принять эту новую политику, способную застраховать нас от вмешательства программиста в серверной. Все только выиграют от этого дополнительного контроля, публичного и открытого. За этим могут следить университет, несколько университетов, общественные организации или каждый пользователь.

Сейчас, когда в Facebook замечают за своим алгоритмом странности, они пытаются разобраться с этим. Возьмем, к примеру, fake news. Это проблема, с которой они давно столкнулись и над решением которой упорно работают. И можно сказать, что им удалось настроить алгоритм таким образом, чтобы он прекратил показывать fake news. Но все это говорит о том, что никто не понимает, как работает алгоритм, - мы можем только смотреть на результат и исправлять ошибки. Это касается и других областей - очень скоро ты придешь к доктору, а он скажет тебе: «Выпей это лекарство, оно поможет тебе. Но я не знаю почему - так сказал компьютер. Должно быть, это правда, потому что он практически не ошибается и знает все лучше меня».

- Я бы, наверное, не стала пить эти таблетки.

Думаю, стоило бы - компьютеры тут точнее.

- И все-таки, как ты думаешь, будем ли мы в состоянии защитить себя в будущем?

Мы можем изменить законы и создать компании, которые в состоянии лучше защитить наши технологии; мы можем обсуждать децентрализованные технологии шифрования. Но вместо того, чтобы продолжать участвовать в битве за приватность, которую мы уже проиграли, мы должны подумать, как вести себя дальше. Давайте попытаемся сделать общество более открытым и терпимым. Образованными избирателями манипулировать сложнее, толерантное общество не будет угрожать людям с иными взглядами, сексуальной ориентацией или вероисповеданием. И мы не сможем защитить себя, если не объединимся. Эта проблема слишком серьезна - нельзя в одиночку защитить себя от ядерной бомбы. Хотя этот пример как раз обнадеживает. У нас есть много других потенциально опасных технологий, которые разработало человечество, и нам удалось с ними разобраться. Подумай о ядерной энергии, динамите или кухонных ножах. Очевидно, есть примеры использования этих технологий против нашего благополучия, но в целом нам удается их контролировать. Мы справляемся с ядерной энергией - справимся и с алгоритмами.

В работе над текстом принимал участие Арнольд Хачатуров.

Издания Das Magazin, в котором речь шла о том, как Big Data и таргетированная реклама в соцсетях помогли Дональду Трампу одержать победу на президентских выборах в США. Многие поспешили назвать этот материал текстом года. Объясняем, почему массовая истерия вокруг расследования и изложенные в нем выводы оказались неоправданно преувеличенными и почему мы, скорее всего, имеем дело не с текстом года, а с крупнейшей журналистской уткой уходящего 2016-го.

Что случилось?

В начале декабря швейцарский журнал Das Magazin опубликовал материал о том, как британская компания Cambridge Analytica, объединив в один мощный сплав технологию Big Data, персональные данные пользователей Facebook и таргетированную рекламу в соцсетях, помогла Дональду Трампу стать президентом США вопреки всем ожиданиям. Также выяснилось, что услугами Cambridge Analytica пользовались радикальные организации, настроенные на выход Британии из Евросоюза. Этот материал был переведен на русский язык изданием The Insider, и его принялись массово распространять в качестве ответа, некоего универсального объяснения Трампу в президентском кресле и победы сторонников Brexit.

В начале статьи - история Михала Косински (Michal Kosinski), ученого, который первым, как кажется во время прочтения, придумал «подружить» психометрию с большими данными. Дальше история переключается на компанию Cambridge Analytica, которых представляют такими себе злыми гениями, воспользовавшимися наработками Косински для победы Трампа. Суть метода Cambridge Analytica в следующем: они скупают все доступные (и труднодоступные) массивы данных об интернет-пользователях, а затем на основании полученной информации тщательно создают такую рекламу для соцсетей, которая бы, во-первых, точно привлекла внимание конкретного психотипа, а во-вторых, заставила принять нужное решение (отдать голос за Трампа).

Михал Косински

В ход идет все: лайки, поисковые запросы, геометки - абсолютно все «следы», оставляемые пользователями в интернете. В тексте утверждается, что технология Косински, взятая на вооружение Cambridge Analytica, - это социология совершенно нового типа и по совместительству мощное оружие массового воздействия. Соцопросы и деление по гендерному или географическому признаку уже не работают - это слишком просто. Новый сложный мир, в котором мы живем, требует гораздо более сложных решений.

Уверенный стиль изложения статьи, компоновка достоверных фактов с обилием художественных деталей («задумчивый Косински, прилизанный Никс и широко улыбающийся Трамп») и упрощенная, «разжеванная» логика сложных явлений помогли этому материалу стать, что называется, «вирусным» и получить широчайшее распространение в Сети. Людям, до сих пор возмущенным и обескураженным последними событиями (в том числе победой Трампа), пришлось по душе складное и простое объяснение: оказывается, в их адрес применили новое страшное оружие управления массами. А словосочетание Big Data вместо размытых и абстрактных представлений приобрело отчетливые зловещие оттенки.

В общем, народу преподнесли историю в духе сериала «Черное зеркало»: есть такой благородный ученый Косински, который хотел предупредить мир об опасности, затем нашлись его циничные последователи (Cambridge Analytica), применившие теоретические знания на практике, и есть абсолютный победитель, нажившийся на этом (Трамп). Герои и злодеи. Добро, зло и пострадавшие (мы с вами). И мало кто заметил, что слишком уж подозрительно стройной вышла эта теория о заговоре вокруг больших данных.

Модель OCEAN

Директор Cambridge Analytica Александр Никс

В основе метода Михала Косински, который позаимствовали предприимчивые люди из Cambridge Analytica, используется так называемый метод OCEAN - попытка описать тип личности с помощью таких пяти популярных параметров, как открытость, добросовестность, экстраверсия, доброжелательность, нейротизм (в английском переводе эти слова образуют аббревиатуру OCEAN, которая и дала название методу). Еще с XIX века (все началось с исследований основателя психометрики Фрэнсиса Гальтона в 1884 году) психологи пытались дифференцировать этот метод изучения личности, но за прошедшие годы исследований количество параметров было сокращено с более чем сотни до пяти. Сделано это было, очевидно, для удобства применения модели OCEAN, но с ее соответствующим огрублением. В своем нынешнем виде пятифакторная модель личности используется с 1980-х.

В «расследовании Das Magazin» упоминают об этом факте, но после предложения «в 1980-е годы два психолога доказали, что каждая черта характера может быть измерена при помощи пяти измерений» сразу же перескакивают на историю Михала Косински. Это и создает манипулятивный эффект: у тех, кто не слишком-то знаком с развитием психологии как науки, возникает ощущение, что именно Косински всерьез взялся изучать и применять этот метод на практике, а до него этим как будто бы никто не занимался. Но это, конечно, не так.

С 1990-х кадровики уже пытались внедрить модель OCEAN, чтобы иметь возможность оценивать соискателей работы при найме персонала. В 2003 году в SA Journal of Industrial Psychology вышло исследование , целью которого было выявить взаимосвязь между характеристиками личности и качеством выполнения работы. В исследовании приняли участие 159 сотрудников фармацевтической компании, которых попросили пройти NEO PI-R - методику психологической диагностики личности, являющую собой опросник из 240 вопросов. Результаты исследования показали, что эмоциональная устойчивость, экстраверсия, открытость к новому опыту и добросовестность связаны с выполнением рабочих задач и креативностью. А три параметра измерения личности (эмоциональная устойчивость, открытость опыту и уступчивость) объяснили всего лишь 28 % процентов результатов, оказавшихся отклонением от усредненного значения.

То есть модель OCEAN смогла обработать и объяснить меньше трети полученных результатов, да и то с оговорками.

В дальнейшем количество исследований в этой области - личностные качества сотрудников и то, как эти качества влияют на выполнение рабочих задач - только росло. Было проведено больше сотни исследований, из которых стало понятно, что пятифакторная модель - это, конечно, просто и удобно, но собирать данные для построения модели OCEAN сложно: слишком длинный опросник и слишком высокая вероятность того, что опрашиваемый человек наврет в своих ответах.

С появлением и активным внедрением социальных сетей в нашу жизнь исследователи пятифакторной модели переключились на интернет-пользователей. В период между 2011–2012-м годами Михаил Косински как раз и приобрел известность благодаря своим предупредительным научным работам , в которых изучал потенциал применения этого метода. Чуть позже это подхватили мировые СМИ, и уже в 2013 году, например, на сайте таблоида The Independent появилась (одна из множества подобных) о том, как нас легко можно предсказать по нашим лайкам в соцсетях.

В действительности точность предсказаний по пятифакторной модели оказалась довольно спорной. можно посмотреть на список лайков страниц на фейсбуке и «личностные характеристики», которые они собой означают согласно Five Factor Model.

Умные - это те, кто лайкает кинофильм «Крестный отец» и «Властелин колец», шоу The Colbert Report, песенку Thunderstorms, слово «наука» и т. д. Сторонники Демократической партии - это те, кто залайкали следующие страницы: Joe Biden; Health Care Reform; The White House; Democrats; Being Liberal; Barack Obama 2012.

Не слишком репрезентативная выборка, не правда ли?

В 2013 году стало понятно , что помимо сочетания FFM и Big Datа есть еще Big Big Data и множество более перспективных игровых моделей, на которые и переключились профессиональные исследователи и до сих пор испытывают. Михал Косински тоже не стал зацикливаться на тупиковой (по крайней мере, на сегодняшний день) сфере пятифакторной модели: в декабре 2015 года, например, у него вышла работа , посвященная выяснению причин несовпадения вкусов и пристрастий у супругов и друзей.

Однако в медиа и в сознании людей остался этот конспирологический шлейф вокруг использования больших данных сильными мира сего ради собственной выгоды.

Скажи мне, кто твой лайк

Об этом нигде нет упоминания в «расследовании», но то самое «страшное оружие» Косински, основанное на анализе Big Data, можно протестировать самостоятельно. Опробовать на себе демоверсию революционной технологий, с помощью которой компания Cambridge Analytica, как утверждается, привела Дональда Трампа к победе на президентских выборах. И уже после этого сделать выводы: действительно ли эта штука способна навязывать людям те или иные поступки?

Тестирование доступно в двух вариантах: анализ вашего фейсбук-аккаунта и анализ написанного вами текста из 1 000 слов.

В первом случае инструмент анализирует ваши лайки по страницам на фейсбуке (любимые фильмы, книги, музыку, общественные организации) и составляет ваш психометрический портрет, определяя те или иные характерные черты. К примеру, в увлечении группой The Cure и сатирическим мультсериалом «Робоцып» программа усматривает «женственность», тогда как шоу Top Gear и канал Comedy Central гарантированно свидетельствуют о вашей маскулинности. Любовь к «Симпсонам» и передаче Saturday Night Live почему-то приравнивается к консерватизму, а вот группа Depeche Mode сразу выдает в вас либералов, трудоголиков и созерцателей (да, коллектив подпадает сразу под три характеристики). И в то же самое время вышеупомянутые лайки группам The Cure и Depeche Mode машина определила как склонность к «менее интеллигентному» поведению.

Этот инструмент не смог с точностью определить религиозную принадлежность автора статьи, засунув его в категорию «другое», куда входят атеизм, агностицизм, буддизм и пастафарианство. Теперь вспоминаем громкие слова из оригинального расследования: «После анализа 70 лайков модель сможет лучше узнать человека, чем его друг. После 150 лайков - лучше, чем родители. После 300 лайков - лучше, чем партнер. С еще большим количеством изученных действий можно было бы узнать о человеке лучше, чем он сам».

Да, кстати, еще с помощью «оружия» удалось выяснить, что лайк официальной странице группы U2 на фейсбуке свидетельствует о «слабо выраженной заинтересованности в психологии».

Big Data и возможность их объединения с психологией - это, безусловно, крайне перспективная сфера, в которой еще предстоит прояснить этический вопрос границ использования личных данных. Но вряд ли эту комбинацию можно назвать стопроцентным оружием, гарантирующим крупную политическую победу или успех в бизнесе. Все-таки человек и его поведенческие паттерны - это слишком труднопрогнозируемая история. Как бы ни хотелось обратного журналистам, сочиняющим манипулятивные статьи, читателям - любителям «простых истин» и политикам, которые по старинке рассчитывают купить голоса.

⇔⇔⇔

При подготовке статьи были использованы материалы из Telegram-канала Сергея Карелова.

Читайте нас у
Telegram