Виявилося, що «хакнути» (від англ. «to hack» – зламати, у розумінні подолати захист, наприклад комп'ютерних мереж; знайти слабке місце і проникнути з поганою метою – ред.) суспільство через Facebook не така вже і складна справа.
Ось вам покрокова інструкція із несподіваною кінцівкою, яку Facebook не врахував.
Уявімо, що вам потрібно виграти вибори чи референдум за вихід вашої країни з ЄС. Ви починаєте...кампанію у соцмережах:
- Розділіть аудиторію на тих: хто «за», хто «проти», і тих, хто вагається. І спробуйте зрозуміти, яка мотивація кожної зі сторін.
Звісно, суспільство неможливо чітко поділити на три групи, бо в кожній із цих категорій є більш лояльні або такі, що сильніше вагаються. Припустимо, вийде 10 груп, які можна розкласти на «спектр прихильності» та надати їм визначальні характеристики, якими вони вирізняються (наприклад, білі консерватори з фермерських містечок півдня США – за республіканців, а ліберальні фінансисти з лондонських кабінетів – проти виходу Британії з ЄС)
- Паралельно з цим, розділіть аудиторії за іншими показниками: вік, фінансовий стан, освіта та інші релевантні критерії. Тепер у вас є ще з десяток-два сегментів суспільства.
- Третій і, як на мене, найвеселіший поділ – за показниками OCEAN. «Метод океану» – це набір із п’яти критеріїв, за якими можна охарактеризувати поведінку людини.
OCEAN включає у себе відкритість (наскільки людина готова до нового), сумлінність (наскільки особа перфекціоніст), екстраверсія (наскільки людина товариська), доброзичливість (наскільки особа готова до кооперації) і нейротизм (наскільки людина вразлива). Цей метод започатковано у психології ще в 1980-х, однак через необхідність заповнювати складну особистісну анкету такі дослідження займали надто багато часу, щоб масштабувати їх на ширші групи. Але лише до того, як з’явився інтернет.
Саме походження цих даних про десятки мільйонів американців і стало початком масштабних звинувачень компанії Facebook у витоці даних. Через особистісний тест (на кшталт «Яка ти пісня Віктора Павліка сьогодні?») британська компанія Cambridge Analytica зібрала необхідні дані про 87 мільйонів американських виборців, і використала їх для президентської кампанії Трампа в 2016 році.
- Тепер, після поділу аудиторії за цими трьома підходами, у вас є сотні сегментів суспільства, які мають унікальні характеристики. Звісно, на листку паперу цього не зробиш. Тут треба комплексні таблиці та алгоритм, який зможе ці групи структурувати.
- Визначіть для всіх цих сегментів дві речі: що вам від них треба (наприклад, лояльним – прийти на вибори, нелояльним – не прийти; невпевненим – впевнитися) та які їхні болі/проблеми (низький дохід, високі ціни за комуналку, страх уколів, негативне ставлення до іммігрантів). Далі, на основі цього підбираються меседжі (від анг. message – повідомлення) для кожного з цих сегментів з опорою їхні болі та закликаючи до дій (наприклад, «не дай іммігрантам з Туреччини заполонити Британію – підтримай Brexit»; «уряд хоче нас контролювати – не вакцинуйся, відстоюй свої права»)
- Запустіть рекламу в фейсбуці (інстаграмі, месенджері та інших платформах компанії), де кожен із визначених сегментів отримає унікальний меседж, який зачепить болі цієї окремої групи людей.
Вітаю, ви можливо досягли своєї мети..., а заодно ще більше поляризували суспільство.
Ті, хто до того підтримував вашу ідею, не лише впевнився у ній ще більше, а ймовірно й радикалізувався. Щодо ваших опонентів, то ви можете досягти принаймні їхньої пасивності через розчарування чи втрату довіри до політиків чи тез, які вони раніше підтримували. Однак, як показує реальність, дуже малоймовірно, що опонентів вдасться переконати в протилежному, а от у довгій перспективі зробити їх пасивними дуже навіть реально.
Ваших політичних противників можна спробувати переконати не йти на вибори (через втрату довіри до кандидата, наприклад), але дуже складно переконати їх проголосувати за вашого кандидата. Антивакцинаторів можна стримати від протестів, але від закликів до вакцинації найрадикальніша їх частина ще більше впевниться у своїх переконаннях, що це «світова змова проти людства».
Кожен із сегментів, за яким ви поділили аудиторію, живе у своїй інформаційній «бульбашці», і ви ще більше їх укріплюєте в переконанні, що саме це і є об’єктивною реальністю. Людина, яка вірить у всесвітню змову, лише впевниться в ній, отримавши рекламу, яка підтверджує її погляди. Під цією рекламою вже, ймовірно, будуть лайки й коментарі користувачів із тієї ж «бульбашки». Відтак, це додасть, приміром, антивакцинатору ще більшої впевненості у своїй позиції.
ДИВІТЬСЯ ТАКОЖ: Антивакцинація по-українськи: міфи, мотивація, джерелаЕмоційність – гачок, на який вас ловлять
Щоб ефективніше залучити аудиторію до своїх повідомлень чи реклами, часто меседжі формують дуже емоційно. Це впливає на людей, водночас нагріває напругу між сторонами дискусії. Коли кампанія передбачає протистояння (за чи проти, вакцинуватися чи ні), то меседжі часто спрямовані на те, щоб викликати несприйняття/ненависть до противника або іншої сторони конфлікту.
Це несе реальну небезпеку, бо посилює розкол у суспільстві та підвищує емоційний градус у протистоянні. З онлайну це може перейти і в офлайн-спілкування: від сварок за родинними столами до вуличних протестів чи насильства між групами протистояння.
Складно виміряти вплив, який зробила фейсбук–реклама на референдум за вихід Британії з ЄС чи на перемогу Трампа п’ять років тому. Автори цих технологій та штаби кампаній прагнуть якомога більше заслуг приписати інноваційним рішенням у цифровій рекламі, тож може здатися, що онлайн-платформи зіграли ключову роль у цих протистояннях.
Та все ж не варто недооцінювати суспільний контекст та вагу телебачення й інших видів медіа у цих кампаніях, як і в актуальній дискусії про вакцинацію.
ДИВІТЬСЯ ТАКОЖ: Крутіший, ніж Трамп? Як Зеленський переконував виборців у соцмережахЧому це небезпечно?
Поляризація суспільств 5 років тому у Британії та США вийшла на небачений досі рівень. Масові протести проти введення у дію рішення референдуму за виходу з ЄС – майже моментальний показник цієї проблеми у Британії.
Зате в США наслідки такого стану справ виднілися впродовж усіх цих п’яти років і отримали кульмінацію у січневому штурмі Капітолію прихильниками Трампа.
ДИВІТЬСЯ ТАКОЖ: Аналітики побачили «російський слід» у координації ультраправих прихильників Трампа. Чим аргументують?Та є й страшніші приклади впливу цих технологій у соцмережах.
У М’янмі мова ворожнечі в соцмережі перелилась у насильство над мусульманською меншиною рохінджа, яке ООН кваліфікувала як геноцид і масове порушення прав людини. Понад 25 тисяч загиблих та 700 тисяч біженців – результат багаторічної напруги, яка переросла у переслідування зокрема через провокації та заклики до насильства у фейсбуці.
Та в цьому випадку Facebook все ж відреагував. В рамках своєї кампанії проти поширення ненависті та дезінформації компанія видалила 18 акаунтів та 52 сторінки у соцмережі, що були пов'язані із військовими М’янми. Також після доповіді ООН було видалено два акаунти головнокомандувача армії М’янми Мін Аун Хлаіна, який мав загалом понад 4 мільйони підписників. Це перший випадок, коли Facebook забанив військового та політичного лідера будь-якої країни.
А що Faсebook?
У більшості інших випадків поляризації суспільства та поширення дезінформації й мови ворожнечі у Faсebook було інша стратегія – не робити нічого.
Керівники соцмережі виправдовують свою політику тим, що свобода слова – понад усе, тому вони не можуть її обмежувати. Водночас, платформі вигідно займати таку позицію, адже емоції, взаємодія, онлайн-баталії – це час на платформі, а відтак можливість показати більше реклами. А паралельно з цим ваше досьє наповнюється новою інформацією на основі дій у соцмережі – за цими даними ви й потрапляєте в один із сегментів аудиторії.
В останні роки все більше організацій критикують Facebook за цей підхід.
Ріст за будь-яку ціну став гаслом соцмережі, принаймні донедавна, коли репутаційні ризики поставили під загрозу майбутнє компанії.
Все частіше компанія впроваджує політики захисту даних, модерації контенту та боротьби з дезінформацією й мовою ворожнечі.
Тема вакцинації – черговий виклик для соцмережі, яка має зайняти позицію між абсолютною свободою слова та боротьбу з дезінформацією.
ДИВІТЬСЯ ТАКОЖ: «Володар Матриці»: чого хоче Цукерберг, просуваючи свій «Метасвіт»?Що ж із цим всім робити?
Кілька порад, як не потрапити на гачок поляризації:
- Не вестися на сенсації
Для більшості онлайн–ресурсів основними цілями є переходи на сайт та час перебування на ньому. Відтак у соцмережах вони намагаються заінтригувати гучним заголовком, щоб ви перейшли за посиланням, аби прочитати повну новину (найчастіше заголовок дуже гіперболізує суть новини). А вже на сайті вони зможуть показати вам рекламу, на якій вони й заробляють. Тому що більше ми клікаємо на заголовки в стилі «На Черкащині підліток з’їв криницю – ніхто не очікував того, що трапилось далі», то більше автори цих творів отримують ресурсів, аби продукувати такий контент. Ці заголовки, звісно, можуть і провокувати конфлікти та поляризувати суспільство, бо дискусії у коментарях показують цей пост у стрічці частіше, що допомагає привести більше людей на сайт.
- Не заходити в онлайн–баталії у коментарях
В інтернеті постійно хтось неправий, і нам часто хочеться про це повідомити всьому світу. Інколи таким є сам задум публікації чи посту, щоб ми ввійшли у цю баталію, та привели за собою друзів, які побачать цей пост у стрічці, якщо ми активно коментуватимемо під ним. А якщо це й не зумисна дискусія, то, будьмо відвертими яка ймовірність когось переконати у фейсбук–дискусії? Та й навіть, якщо шанси на це є, то чи варте воно вашого часу, емоцій. І чи хочете ви цим зробити охоплення посту ще більшим та дати можливість собі й іншим користувачам побачити ще більше реклами за час цієї дискусії? Інколи варто просто пройти повз, і врятувати свій час, який може піти на перевірку інформації.
- Перевіряти інформацію перед тим, як поширювати
Твіттер на хвилі поширення дезінформації про COVID–19 ввів нову функцію, яка бореться із поширенням фейків. Якщо користувач поширює статтю, яку він не відкривав, то соцмережа уточнює, чи ви впевнені в достовірності інформації, яку поширюєте. Так Твіттер мотивує зайві кілька секунд задуматися, чи ви справді часом не допомагаєте дезінформації поширюватися та досягати своїх (не завжди благих) цілей. Це варто робити в усіх платформах: перед поширення контенту задуматися, чи ця інформація точно правдива й корисна.
- Не проходити підозрілі тести
Інколи тести – це просто розвага або ж цікавий інтерактив.
Звісно ж, якщо ваше улюблене онлайн-медіа пропонує вам пройти тест на те, наскільки добре ви знаєте Конституцію, то скоріш за все тут немає прихованих загроз.
Проте, часто тести на кшталт «Який ти мурахоїд сьогодні», націлені на те, щоб зібрати про вас приватну інформацію та продати її або використати для рекламних оголошень.
У найгіршому сценарії (як це трапилося із американцями у 2016 році), творці тесту отримують про вас психологічну картинку, прив’язану до фейсбук–профілю, а відтак зможуть показувати вам індивідуальну рекламу, щоб ефективніше вами маніпулювати. Тож якщо сумніваєтеся у джерелі тесту – краще утриматися від його проходження.
- Залишати у списку друзів тих, із чиєю думкою ви не погоджуєтеся
От буває таке, що ви заходите у соцмережі, бачите чийсь пост, із яким ви абсолютно не погоджуєтеся, наприклад, хтось вважає, що ранні альбоми«Океану Ельзи» переоцінені. І одразу рука тягнеться до кнопки «видалити з друзів» чи «приховати схожі пости». Якщо ви щоразу будете так діяти, то з часом у вас залишаться у друзях лише фанати альбомів «Суперсиметрія» та «Susy», і ви продовжите своє мережеве життя у «бульбашці» однодумців.
Те саме із чутливішими запитаннями – політичними, соціальними поглядами.
Якщо закритись від інших точок зору, це можуть використати проти вас і створити конфлікт із тими, хто має іншу позицію. Тож варто отримувати інформацію і від тих, хто має інші погляди – різноманіття думок у стрічці захистить від маніпуляцій та допоможе краще розуміти якими насправді є інформаційний простір і буття, яке його продукує. Тому радимо не створювати для себе «закриту бульбашку» в соцмережах.
Насправді, цей список порад як стати інструментом розколу суспільства чи маніпуляцій із інших маніпуляцій – невичерпний. Є багато способів захиститися від небезпечних технологій впливу. Один із базових – розуміти, як ці технології працюють. Це знання створює у нас готовність протидіяти, а відтак допомагає рухатися до більш гармонійного інформаційного простору, що матиме безпосередній вплив на реальне життя.
Роман Тимоцко – головний виконавчий директор і співзасновник агенції Stroom
Думки, висловлені в рубриці «Точка зору», передають погляди самих авторів і не конче відображають позицію Радіо Свобода
ДИВІТЬСЯ ТАКОЖ: Виклик для батьків: як виховувати дітей україномовними і не зійти з розуму ДИВІТЬСЯ ТАКОЖ: Instagram шкодить підліткам? Сенат США заслухав директорку глобального відділу безпеки Facebook