«Максимальний репост»

Чи здатні соціальні мережі спотворювати наше уявлення про реальність? Чому ми схильні довіряти своїм друзям навіть у тих випадках, коли вони діляться з нами посиланнями на неперевірені повідомлення, а то й на пряму дезінформацію? І як ця довірливість впливає на наші вчинки в реальному світі - наприклад, на наше рішення проголосувати за того чи іншого кандидата в президенти? Читайте про це в статті професора комп'ютерних наук та інформатики Філіппо Менцера, яку опублікувало видання.

Якщо ви, подібно до більшості американців, дізнаєтеся новини із соціальних мереж, то це означає, що паралельно ви отримуєте щоденну порцію брехні, неперевірених чуток, страшилок у дусі теорії змови, і невірно сформульованих повідомлень. Коли все це перемішано з достовірною інформацією з надійних джерел, докопатися до правди буває дуже нелегко.


Як показав аналіз даних, зібраних Колумбійським університетом в рамках програми Emergent, яка займається вивченням чуток, дезінформація стає об'єктом вірусного поширення майже так само часто, як і надійні відомості (аналізом даних займалася команда дослідників під моїм керівництвом).

Багато хто запитує, чи не вплинув цей натиск електронної дезінформації на результати американських виборів 2016 року. По правді кажучи, ми цього не знаємо, але є всі підстави вважати, що такий вплив міг мати місце, враховуючи досвід попередніх досліджень і відомості, що надходять з інших країн. Будь-яке неправильне повідомлення впливає на формування нашої точки зору. Підсумкова шкода від дезінформації може бути цілком реальною - якщо введені в оману люди готові ризикувати життям власних дітей, як у випадку з відмовою від обов'язкових щеплень, то що їм завадить поставити на кін нашу демократію?

Будучи фахівцем з питань поширення дезінформації через соціальні мережі, я згоден з тим, що Google і Facebook зробили крок у вірному напрямку, спробувавши обмежити можливості новинних фальсифікаторів наживатися на рекламі. Але цей крок не зупинить політично мотивованих порушників.

Експлуатація соціальних мереж

Десять років тому я зі своїми колегами проводив експеримент, під час якого ми виявили, що 72 відсотки студентів коледжів довіряли лінкам, нібито отриманим від друзів, - аж до того, що вони ділилися особистими логінами на фішингових сайтах. Настільки поширена довірливість підказала й іншу форму зловмисної маніпуляції: користувачі повірять дезінформації, клікнувши за посиланням, що прийшло від когось із мережевих контактів.

Щоб перевірити цю ідею, я створив фальшиву веб сторінку з випадковими, згенерованими комп'ютером новинами в стилі жовтої преси, щось на зразок: «Знаменитість Х у ліжку зі знаменитістю Y!» Вводячи в пошуковик ім'я знаменитості, відвідувачі сайту запускали скрипт, який автоматично фабрикував замітку про цю людину. Я розмістив на сайті попередження про те, що тут вивішуються безглузді тексти і липові «факти». Я також розмістив на сторінці рекламні оголошення. Наприкінці місяця мені прийшов чек - гроші, зароблені на показах реклами. Вони-то і послужили доказом: фейкові новини можуть приносити гроші, попутно забруднюючи інтернет брехнею.

На жаль, я був не єдиним, кому прийшла в голову така ідея. Через десять років виникла ціла індустрія з виробництва фальшивих новин і поширення дезінформації в інтернеті. Сайти з розважальним «сміттєвим» контентом виробляють фальшивки, щоб заробляти на рекламі, тоді як сайти надлояльних політичних активістів публікують і поширюють чутки і дезінформацію в дусі теорії змови з метою вплинути на громадську думку.


Ця індустрія набирає силу завдяки тому, що сьогодні дуже легко створити бота або фальшивий акаунт в соцмережах, який управляється програмою, але прикидається живою людиною і завдяки цьому здатний бути впливовим. Під час дослідження ми виявили безліч фальшивих ініціативних кампаній, які прийнято позначати терміном «астротурфінг» (англ. - імітація громадської думки за допомогою соцмереж).

У відповідь ми розробили систему BotOrNot, яка розпізнає боти в соціальних мережах. Вона не ідеальна, але її результати досить акуратні для того, щоб розпізнати кампанії, спрямовані на агітацію на користь Brexit або проти щеплень. Використовуючи BotOrNot, наші колеги виявили, що більша частина онлайн-обговорень, присвячених недавнім виборам американського президента, була ініційована ботами.

Створення інформаційних бульбашок

Людьми досить легко маніпулювати за допомогою дезінформації в соцмережах, оскільки цьому сприяє складне поєднання соціальних, когнітивних, економічних і поведінкових установок, що розділяються всіма нами. Деякі з них зіграли позитивну роль в ході еволюції: довіра до сигналів, що виходять від найближчого оточення, і скептицизм по відношенню до відомостей, що суперечать власному досвіду, допомогли нашим предкам навчитися уникати зубів хижаків. Але в сьогоднішньому замкнутому світі мережевого спілкування сигнали, що надходять до мене з соцмережі від прихильника теорії змови, що проживає на іншому кінці світу, заважають мені приймати зважені рішення.

«Розшаровуючи» повідомлення друзів і «відписуючись» про тих, чиї думки відрізняються від наших, ми опиняємося в настільки полярно орієнтованій «ехокамері», що за одним списком ваших друзів дослідники з високою точністю скажуть, хто ви - ліберал або консерватор. Структура соціальної мережі настільки щільна, що дезінформація всередині окремої групи поширюється практично блискавично, і в той же час настільки роздроблена, що інші групи про неї нічого не знають.

Всередині нашої «бульбашки» ми отримуємо тільки спеціально відібрану інформацію, що збігається з нашими переконаннями. Такий сценарій ідеальний для підвищення рівня суспільності, але згубний для розвитку здорового скептицизму. Надмірна впевненість у своїй правоті призводить до того, що ми «розшаровуємо» заголовок, не читаючи самої статті.

Наша лабораторія отримала схожий урок на власному досвіді, коли напередодні проміжних виборів в Америці в 2014 році стала об'єктом злісної дезінформації. Вивчаючи активність соцмереж, ми натрапили на фальшиві повідомлення про наші дослідження, які поширювалися, переважно через твіттер, всередині односторонньо орієнтованої «ехокамери» - великої, однорідної і політично активної спільноти. Ці люди блискавично ретвітили фальшиві повідомлення, але були вкрай скупі на спростування.

Вірусне поширення

Наше дослідження показує, що при існуючій структурі соціальних мереж і обмеженій увазі користувачів деякі меми, незалежно від їх якості, неминуче стають вірусними. Нехай навіть окремі користувачі намагаються ділитися перевіреною інформацією, соцмережа в цілому не здатна відрізнити правду від фальшивки. Цим і пояснюються всі вірусні «фейки», що гуляють по інтернету.


Про решту подбає «економіка уваги»: якщо якась тема виходить в топ, пов'язана з нею інформація починає проводитися прискореними темпами. При цьому сфабрикувати новину, видавши її за факт, набагато дешевше, ніж добувати правдиву інформацію. Причому фабрикувати можна на будь-який смак: консерватори прочитали, що папа Римський підтримав Трампа, ліберали прочитали, що він підтримав Клінтон. А насправді він не підтримував нікого.

Вся справа в алгоритмах

Якщо ми все одно не можемо переглянути всі повідомлення з інформаційної стрічки, відбір того, що ми побачимо, беруть на себе алгоритми. Алгоритми, що використовуються в сьогоднішніх соцмережах, налаштовані присвоювати високий пріоритет «чіпляючим» постам - на які ми з більшою ймовірністю клікнемо, відреагуємо, якими, можливо, поділимося. Але недавні дослідження показали, що сторінки з навмисною дезінформацією отримують такий же відгук і поширюються так само широко, як і справжні новини.

Упередженість алгоритмів, які воліють показувати «чіпляючі» новини замість правдивих, посилює притаманну нам упередженість соціального і когнітивного характеру. В результаті, переходячи за посиланнями в соціальних мережах, ми самі собі звужуємо коло відвідуваних ресурсів, робимо його більш однорідним, ніж було б у разі самостійного пошуку інформації в мережі і переході за найпопулярнішими посиланнями. Існуючі дослідження показують, що «ехокамера» здатна зробити потрапили в неї людей більш довірливими по відношенню до неперевірених чуток. Але ми ще мало знаємо про те, чому люди по-різному реагують на конкретний «фейк»: одні діляться їм негайно, а інші спершу намагаються його перевірити. Щоб вивчити це змагання між тими, хто бездумно «шерить», і тими, хто перевіряє інформацію, ми змоделювали штучну соціальну мережу. Тим самим ми сподіваємося розібратися в суперечливих даних про те, що в якихось ситуаціях перевірка даних допомагає зупинити поширення фальшивого сполучення, а в якихось - ні. Отримані нами попередні результати дозволяють припустити, що чим більш замкнута спільнота тих, хто вірить фальшивці, тим довше вона живе. І це відноситься не тільки до самої фальшивки, але і до соціальної мережі в цілому. Багато хто намагається зрозуміти, що з цим робити далі. Судячи з недавньої заяви Марка Цукерберга, Facebook вже відчуває можливі рішення. А група студентів пропонує просто позначати лінки при «розшаруванні» як «достовірні» або «недостовірні». Якимись можливими механізмами вирішення цього завдання ми поки не володіємо. Наприклад, ми поки не можемо навчити штучний інтелект відокремлювати правду від брехні. Але ми можемо створити алгоритм, який буде присвоювати більш високий рейтинг ресурсам з кращим показником надійності.

Як поширюються фальшивки

Щоб ефективніше боротися з новинними «качками», необхідно зрозуміти шляхи їх поширення. Наприклад, якщо з'ясується, що за більшу частину «фейків» відповідальні боти, ми сконцентруємося на їх пошуку. Якщо, навпаки, вся справа в «ехокамерах», то, можливо, нам слід розробити такі алгоритми рекомендації новин, які не будуть виключати різні точки зору.

Тому наша лабораторія розробляє платформу, здатну простежити і візуалізувати шляхи поширення неперевірених і відповідних їм надійних повідомлень у соцмережах. Ці дані, отримані з реального світу, ми завантажимо в нашу штучну соцмережу і тоді зможемо випробувати різні способи боротьби з фальшивими новинами.


також здатна наочно показати користувачам, як легко за допомогою інформації з мережі маніпулювати їх думкою - і навіть наскільки легко багато хто з нас готовий ділитися фальшивими новинами. стане частиною пакету програм нашої Обсерваторії соціальних медіа, яка дозволяє будь-якій людині простежити за поширенням мемів через твіттер. Об'єднуючи воєдино такі програми, користувачів, які звикли перевіряти інформацію, і соцмережі, можна звести до мінімуму дублювання зусиль і підвищити взаємодопомогу між ними.

Дуже важливо об'єднати зусилля для вивчення цих питань. Нам потрібні всі: IT-фахівці, соціологи, економісти, журналісти, - і всі партнери IT-індустрії повинні співпрацювати, щоб поставити заслін поширенню дезінформації.

COM_SPPAGEBUILDER_NO_ITEMS_FOUND